Refine
Document Type
- Doctoral Thesis (494) (remove)
Institute
- Institut für Strukturmechanik (ISM) (56)
- Institut für Europäische Urbanistik (29)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (25)
- F. A. Finger-Institut für Baustoffkunde (FIB) (20)
- Professur Sozialwissenschaftliche Stadtforschung (16)
- Professur Baubetrieb und Bauverfahren (15)
- Professur Denkmalpflege und Baugeschichte (14)
- Professur Informatik im Bauwesen (12)
- Professur Informatik in der Architektur (12)
- Professur Bauchemie und Polymere Werkstoffe (11)
Keywords
- Architektur (25)
- Beton (21)
- Stadtplanung (18)
- Finite-Elemente-Methode (17)
- Optimierung (14)
- Stadtentwicklung (13)
- Denkmalpflege (12)
- Isogeometric Analysis (10)
- Kunst (10)
- Modellierung (10)
Year of publication
Gründungsunternehmen stehen vor der Herausforderung, eine unternehmerische Leistung zu entwickeln und gleichzeitig eine Markenidentität aufzubauen. Dabei sind sie mit finanziellen, personellen und strukturellen Besonderheiten konfrontiert, aber auch mit Unbekanntheit und Kundenunsicherheit. Die Dissertation zielt darauf ab, durch die Analyse markenbildender Strategiepraktiken einen Beitrag zur wissenschaftlichen Auseinandersetzung mit der Markenbildung bei Gründungsunternehmen zu leisten und praktische Implikationen für angehende Gründer:innen sowie akademische Startup-Inkubatoren abzuleiten.
Der Fokus liegt dabei auf Gründungsvorhaben und Startups in der Vorgründungs- oder frühen Gründungsphase aus dem Hochschulumfeld. Zur Analyse markenbildender Strategiepraktiken wird der Strategy-as-Practice Ansatz (SAP) angewendet. Die qualitative Forschungsmethodik wird genutzt, um Handlungsmuster bestimmter Akteursgruppen in diesem spezifischen Kontext zu rekonstruieren. Beobachtungen, Interviews und Dokumente im Feld dienen als Grundlage für die Forschung.
Die Ergebnisse dieser Arbeit liefern umfassende Einblicke in die markenbildende Praxis bei Gründungsunternehmen. Auf Basis dieser Erkenntnisse wurde ein Modell entwickelt, das Komponenten beschreibt, die zusammen einen Handlungsrahmen für die Markenbildung in emergenten Strategiekontexten wie der Unternehmensgründung bilden. Dieses Modell bietet die Möglichkeit, sich vor dem Hintergrund der gründungsspezifischen Rahmenbedingungen mit der Markenentwicklung in der frühen Gründungsphase auseinanderzusetzen und sie systematisch in das Gründungsvorhaben zu implementieren.
Entscheidungshilfen für die Planung von Anlagen zum naßmechanischen Recycling von Betonrestmassen
(2004)
Trotz der weiten Verbreitung erfolgt die Planung der Restbetonrecyclinganlagen immer noch durch learnig-by-doing, da verfahrenstechnisches Grundlagenwissen nicht vorliegt. Wer an verantwortlicher Stelle die Investition in eine neue oder in die Verbesserung einer bestehenden Restbetonrecyclinganlage beurteilen soll, steht vor einer komplexen Entscheidung, die unter Berücksichtigung unterschiedlichster Kriterien getroffen werden muss. In der Praxis besteht hinsichtlich der Qualitätssicherung der Recyclingprodukte, der Ablagerungen der noch reaktiven Zementpartikel, der Bemessung der eingesetzten Maschinen, der praktikablen Handhabung hinsichtlich einiger Detailprobleme sowie der Anordnung der verfahrenstechnischen Komponenten in Bezug zur Geländeoberkante weitgehend Unklarheit. Das allgemeine Verlangen nach einer durchdachten Entscheidungshilfe und die Notwendigkeit, zu einem sachlich begründeten Urteil zu kommen, macht Entscheidungshilfen für die Planung von Restbetonrecyclinganlagen erforderlich. Insbesondere da Fehlentscheidungen nicht nur mit großem Aufwand rückgängig gemacht werden können. Hierfür wurden 18 maßgebliche Entscheidungskriterien entwickelt. Diese Entscheidungskriterien wurden im Rahmen der Nutzwertanalyse als Projektziele entwickelt. Die erarbeiteten Kriterien einteilen: - Kriterien zur Qualitätssicherung bei der Verwendung der Recyclingprodukte Für die Wiederverwendung der Recyclingprodukte Restwasser und Restbetonzu- schlag sind im technischen Regelwerk Verfahrensweisen vorgechrieben. Hinsichtlich der Prozesse bei der Wiederverwendung konnten deutliche Ver- besserungspotentiale aufgezeigt werden. Besonders die Anwendung von online- Dichtemessverfahren im Vergleich zur Aräometermessung verbessert die Len- kungsprozesse zur Qualitätssicherung. Aber auch die weitere Klassierung oder das getrennte Lagern und Dosieren des Restbetonzuschlags im Vergleich zu der im technischen Regelwerk vorgeschriebenen Verfahrensweise des volumetrischen Abschätzens bringt Verbesserungspotential. - Kriterien zur Minimierung von Ablagerungen Noch reaktive Zementpartikel kommen zeitweise permanent mit Anlagen- komponenten, Leitungen und Beckeninnenflächen der Recyclinganlage in Be- rührung. Ablagerungen von Zementpartikeln, die den Betrieb der Anlage be- hindern, verschlechtern oder sogar verhindern, sind unvermeidbar. Aller- dings kann, wie im Rahmen dieser Arbeit gezeigt wurde, eine Minimierung der Ablagerungen durch geeignete Maßnahmen herbeigeführt werden. Die Ablage- rungen im Suspensionsbeckenlassen sich durch den Zustand der homogenen Suspension sowie durch das Strömungsbild angepasste Formgebung minimieren. Durch die geeignete Gefällewahl und vor allem durch die korrekte Wahl der Pumpenart können die Ablagerungen in Leitungen minimiert werden. - Kriterien zur Bemessung der verfahrenstechnischen Apparate Die Auslegung der Recyclinganlage hinsichtlich der Auswaschleistung, der Rührerleistung und der Größe des Suspendierraumes erfolgt bisher anhand von praktischen Erfahrungswerten. In dieser Arbeit wurde für die Auswasch- leistung ein allgemeingültiges Berechnungsmodel hergeleitet. Darüber hinaus wurde gezeigt, dass die Rührerleistung für das Suspendieren von Restwasser berechnet werden kann. Die Größe des Suspendierraumes kann unter Be- rücksichtigung der zu- und abfließenden Materialströme berechnet werden. Das Trennverhalten des mechanischen Klassierers wurde im Rahmen einer Ver- suchsreihe mit folgenden Ergebnissen ermittelt: a. Die Klassierdurchsätze steigen mit größer werdendem Entleerdurchsatz. ufgrund der Pufferwirkung des mechanischen Klassierers, bei der die diskontinuierlich in den Aufgabetrichter gefüllte Restbetontrübe (Ent- leeren) in einem kontinuerlichen Prozess (Klassieren) durch den Trog gefördert wird, nähert sich der Klassierdurchsatz asymtotisch einem Grenzwert an. b. Das Masseausbringen rbz wird signifikant vom Klassierdurchsatz und weniger vom Entleerdurchsatz beeinflusst. c. Die Korngrößenverteilung des Restbetons, des Restbetonzuschlags und des Restwassers belegen anschaulich den erreichten Trenneffekt. d. Die Trennkorngröße steigt mit zunehmendem Klassierdurchsatz an. Diese Tendenz ist allerdings nur bei Betrachtung des "nassen" Klassier- durchsatzes signifikant erkennbar. Bei Betrachtung des "trockenen" Durchsatzes ergibt sich keine Abhängigkeit. Die Ursache hierfür ist, dass in den "nassen" Durchsatz Prozesse wie Trübeagitation und Feinkorn- konzentration indirekt eingehen. e. Der Fehlkornanteil < 125 µm im Restbetonzuschlag steigt ebenfalls mit "nassem" Klassiersatz an. f. Im Unterschied dazu bestehen für den Fehlkornanteil > 125 µm im Rest- wasser signifikante Abhängigkeiten zu Entleer- und Klassierdurchsätzen. Ursache ist der tote Fluss. - Kriterien zur Praktikabilität des Anlagenberiebes - Interdependenzen zwischen Anlagenkomponenten
Die zu beobachtenden kürzeren Produktlebenszyklen und eine schnellere Marktdurchdringung von Produkttechnologien erfordern adaptive und leistungsfähige Produktionsanlagen. Die Adaptivität ermöglicht eine Anpassung der Produktionsanlage an neue Produkte, und die Leistungsfähigkeit der Anlage stellt sicher, dass ausreichend Produkte in kurzer Zeit und zu geringen Kosten hergestellt werden können. Durch eine Modularisierung der Produktionsanlage kann die Adaptivität erreicht werden. Jedoch erfordert heutzutage jede Adaption manuellen Aufwand, z.B. zur Anpassung von proprietären Signalen oder zur Anpassung übergeordneter Funktionen. Dadurch sinkt die Leistungsfähigkeit der Anlage.
Das Ziel dieser Arbeit ist es, die Interoperabilität in Bezug auf die Informationsverwendung in modularen Produktionsanlagen zu gewährleisten. Dazu werden Informationen durch semantische Modelle beschrieben. Damit wird ein einheitlicher Informationszugriff ermöglicht, und übergeordnete Funktionen erhalten Zugriff auf alle Informationen der Produktionsmodule, unabhängig von dem Typ, dem Hersteller und dem Alter des Moduls. Dadurch entfällt der manuelle Aufwand bei Anpassungen des modularen Produktionssystems, wodurch die Leistungsfähigkeit der Anlage gesteigert und Stillstandszeiten reduziert werden.
Nach dem Ermitteln der Anforderungen an einen Modellierungsformalismus wurden potentielle Formalismen mit den Anforderungen abgeglichen. OWL DL stellte sich als geeigneter Formalismus heraus und wurde für die Erstellung des semantischen Modells in dieser Arbeit verwendet. Es wurde exemplarisch ein semantisches Modell für die drei Anwendungsfälle Interaktion, Orchestrierung und Diagnose erstellt. Durch einen Vergleich der Modellierungselemente von unterschiedlichen Anwendungsfällen wurde die Allgemeingültigkeit des Modells bewertet. Dabei wurde gezeigt, dass die Erreichung eines allgemeinen Modells für technische Anwendungsfälle möglich ist und lediglich einige Hundert Begriffe benötigt.
Zur Evaluierung der erstellten Modelle wurde ein wandlungsfähiges Produktionssystem der SmartFactoryOWL verwendet, an dem die Anwendungsfälle umgesetzt wurden. Dazu wurde eine Laufzeitumgebung erstellt, die die semantischen Modelle der einzelnen Module zu einem Gesamtmodell vereint, Daten aus der Anlage in das Modell überträgt und eine Schnittstelle für die Services bereitstellt. Die Services realisieren übergeordnete Funktionen und verwenden die Informationen des semantischen Modells. In allen drei Anwendungsfällen wurden die semantischen Modelle korrekt zusammengefügt und mit den darin enthaltenen Informationen konnte die Aufgabe des jeweiligen Anwendungsfalles ohne zusätzlichen manuellen Aufwand gelöst werden.
Im Rahmen der Dissertation ist ein analytisches Berechnungsverfahren zur Ermittlung der Kapazität in lichtsignalgeregelten Zufahrten mit zusätzlichen Aufstellstreifen bei gleichzeitiger Freigabezeit entwickelt worden, dass sich durch folgende Eigenschaften auszeichnet:
a) einfaches Berechnungsverfahren – Ansatz eines einfachen linearen Berechnungsansatzes, der auf den Grundzusammenhängen des Verkehrsablaufs in lichtsignalgeregelten Zufahrten aufbaut,
b) breites Anwendungsgebiet – Berechnungsverfahren kann in Zufahrten mit bis zu zwei zusätzlichen Aufstellstreifen angewendet werden,
c) hohe Genauigkeit – Im Rahmen eines direkten Vergleichs konnte u. a.
gezeigt werden, dass mit dem hergeleiteten analytischen Berechnungsverfahren genauere Kapazitätswerte ermittelt werden können, als mit dem Berechnungsverfahren nach HBS 2015.
Im Rahmen der Dissertation wurde ein Toolboxmodell für transdisziplinäres Wasserressourcenmanagement entwickelt. Das Modell liefert den methodischen Rahmen Wasserressourcen nachhaltig und transdisziplinär zu bewirtschaften.
Der Begriff der Nachhaltigkeit und eine Konkretisierung der nachhaltigen Bewirtschaftung globaler Wasserressourcen scheinen unüberschaubar und suggerieren die Forderung nach einer neuen Weltformel. Die globale Bedeutung der Wasserressourcen, die für Regionen spezifischen Besonderheiten des natürlichen Wasserhaushalts und der anthropogenen Nutzung, die Zeitskala und die Kontextualisierung in alle betroffenen und benachbarten Disziplinen deuten auf die Komplexität der Thematik hin. Es wird eine Systematisierung des Planungsprozesses von Wasserressourcen notwendig, anhand derer eine holistische Herangehensweise mit einer Strategieentwicklung für Regionen spezifischer Schwerpunktprobleme erfolgt. Ziel der Arbeit ist die Erarbeitung einer Strategie zur Systematisierung nach diesen Forderungen und die Bereitstellung eines Toolboxmodelles als Planungswerkzeug für das transdisziplinäre Wasserressourcenmanagement.
Das Toolboxmodell stellt den konzeptionellen Rahmen für die Bewirtschaftung von Wasserressourcen mit der Anwendung transdisziplinärer Forschungsmethoden bereit. Wesentliche Herausforderung bei der Anwendung der transdisziplinären Methode sind die Implementierung verschiedener Skalenbereiche, der Umgang mit der Komplexität von Daten, das Bewahren von Transparenz und Objektivität sowie die Ermöglichung eines auf andere Regionen übertragbaren Planungsprozesses.
Die theoretischen Grundlagen naturwissenschaftlicher Forschung zur Nachhaltigkeit haben ihren Ursprung in den biologischen und geographischen Disziplinen. Das Ineinandergreifen naturräumlicher Zusammenhänge und der Einfluss anthropogener Nutzung und technischer Innovationen auf den Naturhaushalt sind Kern der Kausalität übergreifenden Denkens und Verstehens. Mit dem Ansatz des integrierten Wasserressourcenmanagements (IWRM) erfolgt die Berücksichtigung wirtschaftlicher und sozioökonomischer Ziele in den Planungsprozess für ökologisch nachhaltige Wasserwirtschaft. Das Instrument der Wasserrahmenrichtlinie (EU-WRRL) ist auf eine Gewässerökologie ausgerichtete Richtlinie, welche die Integration verschiedener Interessenvertreter in den Planungsprozess vorsieht. Das Konzept der neuartigen Sanitärsysteme basiert auf Stoffflüssen zwischen konkurrierenden Handlungsbereichen, wie Abfall-, Ressourcen- und Landwirtschaft.
Den integrierten Ansätzen fehlt eine übergeordnete gemeinsame Zielstrategie – eine sogenannte Phase Null. Diese Phase Null – das Lernen aller 7 Zusammenfassung 157 relevanten, konkurrierenden und harmonisierenden Handlungsfelder eines Planungshorizontes wird durch eine transdisziplinäre Perspektive ermöglicht. Während bei der integralen Perspektive eine disziplinorientierte Kooperation im Vordergrund steht, verlangt die transdisziplinäre Perspektive nach einer problemorientierten Kooperation zwischen den Interessenvertretern (Werlen 2015). Die bestehenden Konzepte und Richtlinien für das nachhaltige Management von Wasserressourcen sind etabliert und evaluiert. Der Literatur zur Folge ist eine Weiterentwicklung nach der Perspektive der Transdisziplinarität erforderlich. Das Toolboxmodell für integrales Wasserressourcenmanagement entspricht einem Planungstool bestehend aus Werkzeugen für die Anwendung wissenschaftlicher Methoden. Die Zusammenstellung der Methoden/Werkzeuge erfüllt im Rahmen die Methode transdisziplinärer Forschung. Das Werkzeug zum Aufstellen der relevanten Handlungsfelder umfasst die Charakterisierung eines Untersuchungsgebietes und Planungsrahmens, die kausale Verknüpfung des Bewirtschaftungskonzeptes und konkurrierender sowie sich unterstützender Stakeholder. Mit dem Werkzeug der Kontextualisierung und Indikatorenaufstellung wird eine Methode der stufenweisen und von einer Skala unabhängigen Bewertung des Umweltzustandes für die Zielpriorisierung vorgenommen. Damit wird das Toolboxmodell dem Problem der Komplexität und Datenverfügbarkeit gerecht. Anhand der eingesetzten ABC Methode, werden die Bewertungsgrößen differenziert strukturiert auf verschiedene Skalen und Datenressourcen (A=Ersterkennung,B=Zeigerwerte, C=Modell/Index). Die ABC-Methode ermöglicht die Planung bereits mit unsicherer und lückenhafter Datengrundlage, ist jederzeit erweiterbar und bietet somit eine operative Wissensgenerierung während des Gestaltungsprozesses.
Für das Werkzeug zur Bewertung und Priorisierung wird der Algorithmus der Composite Programmierung angewandt. Diese Methode der Mehrfachzielplanung erfüllt den Anspruch der permanenten Erweiterbarkeit und der transparenten und objektiven Entscheidungsfindung. Die Komplexität des transdisziplinären Wasserressourcenmanagements kann durch die Methode der Composite Programmierung systematisiert werden. Das wesentliche Ergebnis der Arbeit stellt die erfolgreiche Erarbeitung und Anwendung des Tool-boxmodells für das transdisziplinäre Wasserressourcenmanagement im Untersuchungsgebiet Stadt Darkhan in der Mongolei dar. Auf Grund seiner besonderen hydrologischen und strukturellen Situa-tion wird die Relevanz eines nachhaltigen Bewirtschaftungskonzeptes deutlich. Im Rahmen des Querschnittsmoduls des MoMo-Projektes wurde eine für das Toolboxmodell geeignete Datengrundlage erarbeitet. Planungsrelevante Handlungsfelder wurden im Rahmen eines Workshops mit verschiedenen Interessenvertretern erarbeitet. Im Ergebnis dessen wurde die Systematik eines Zielbaumes mit Hauptzielen und untergeordneten Teilzielen als Grundlage der Priorisierung nach den holistischen Anspruch der transdisziplinären Forschung aufgestellt. Für die Messbarkeit, in-wieweit Teilziele erreicht sind oder Handlungsbedarf besteht, wurden Indikatoren erarbeitet. Die Indikatoren-Aufstellung erfolgte exemplarisch für das Handlungsfeld Siedlungswasserwirtschaft in allen Skalen des ABC-Systems. Die im BMBF-MoMo Projekt generierte umfassende Datengrundlage ermöglichte die Anwendung und Evaluierung des Toolboxmodells mit unterschiedlichem quantitativem und qualitativem Dateninput. Verschiedene Kombination von A (Ersterkennung), B (Zeigerwerte) und C (Modell/Index) als Grundlage der Priorisierung mit der Compostite Programmierung ermöglichten die Durchführung und Bewertung des transdisziplinären Planungstools. Die er-mittelten Rangfolgen von Teilzielen mit unterschiedlichen Bewertungsvarianten ergaben ähnliche
Tendenzen. Das ist ein Hinweis dafür, dass für die zukünftige Anwendung des Toolboxmodells die operative Wissensgenerierung, d.h. das schrittweise Hinzufügen neu ermittelter, gesicherterer Daten, funktioniert. Eine schwierige Datenverfügbarkeit oder eine noch im Prozess befindliche wissenschaftliche Analyse sollen keine Hindernisse für eine schrittweise und erweiterbare Zielpriorisierung und Maßnahmenplanung sein. Trotz der Komplexität des transdisziplinären Ansatzes wird durch die Anwendung des Toolboxmodells eine effiziente und zielorientierte Handlungspriorisierung ermöglicht. Die Effizienz wird erreicht durch ressourcenschonende und flexible, Ziel fokussierte Datenermittlung. Zeit und Kosten im Planungsprozess können eingespart werden. Die erzielte Priorisierung von letztlich Handlungsempfehlungen erfolgt individuell auf die Eigenart des Untersuchungsgebietes angepasst, was hinsichtlich seiner Wirkung als erfolgsversprechend gilt.
Die vorliegende Arbeit hatte zum Ziel, für Strecken mit 2+1-Verkehrsführung (Straßentyp RQ 15,5) ein Verfahren zum Nachweis der Verkehrsqualität zu entwickeln. Dabei wurden in einem ersten Schritt zunächst für freie Streckenabschnitte Beziehungen zwischen den Verkehrsstärken (q) und den mittleren Pkw-Reisegeschwindigkeiten (v) ermittelt und darauf aufbauend ein Bemessungsverfahren abgeleitet. In einem zweiten Schritt wurde das Verfahren erweitert, um für den Fall der Einbindung planfreier Knotenpunkte ebenfalls eine Bewertung vornehmen zu können. Bislang standen in Deutschland keine ausreichenden Erkenntnisse über den Zusammenhang zwischen q und v für Strecken mit einem RQ 15,5 zur Verfügung. Eine Literaturanalyse ergab, dass sich frühere Untersuchungen mehrheitlich mit dem Aspekt der Verkehrssicherheit beschäftigten. Somit stellten die eigenen Messungen und die daran anschließende Ergänzung von Daten mit Hilfe einer mikroskopischen Verkehrsflusssimulation den Schwerpunkt der Untersuchung dar. Die empirischen Untersuchungen hatten - verglichen mit q-v-Beziehungen für herkömmliche Landstraßenabschnitte - ein zum Teil deutlich höheres Geschwindigkeitsniveau bei vergleichbaren Verkehrsstärken zum Ergebnis. Darüber hinaus konnten zum Teil wesentlich höhere Überholraten festgestellt werden als bei einbahnig zweistreifigen Streckenabschnitten, bei denen ein Überholen im Gegenverkehr erlaubt ist. Zweifellos tragen auch die zweistreifigen Abschnitte eines RQ 15,5 dazu bei, Fahrzeugpulks aufzulösen. Für die aus mehreren aufeinander folgenden ein- und zweistreifigen Abschnitten bestehenden Untersuchungsstrecken, konnte jedoch insgesamt keine bedeutsame Pulkauflösung festgestellt werden. Dies ist vor allem dadurch begründet, dass die Strecken mit einem einstreifigen Abschnitt endeten. Das Simulationsprogramm LASI2+1 wurde speziell auf die Simulation des Verkehrsablaufs auf einer Strecke mit 2+1-Verkehrsführung abgestimmt. Die Kalibrierung des Modells erfolgte auf Basis von Erkenntnissen lokaler Messungen (insbesondere Zeitlücken und Geschwindigkeitsverteilungen). Im Rahmen der Validierung erfolgte ein Abgleich zwischen den Ergebnissen der Messungen mit den mit LASI2+1 simulierten für jede einzelne nachgebildete Untersuchungsstrecke anhand der Parameter q und v. Mit LASI2+1 wurden zahlreiche Simulationsläufe durchgeführt, bei denen eine Vielzahl von Kombinationen der Streckenparameter sowie der Verkehrszusammensetzung bei einem möglichst breiten Spektrum von Verkehrsbelastungen betrachtet wurden. Die Ergebnisse lagen zunächst in „Punktwolken“ vor, wobei jeweils ein Punkt beschrieben wird durch eine in einem 5-Minuten-Intervall gültige Verkehrsstärke q und der zu diesem Intervall gehörigen mittleren Reisegeschwindigkeit der Pkw v. Zur Darstellung der den Verkehrsablauf beschreibenden Punktwolken wurden verschiedene makroskopische Modelle getestet. Dabei wurden ein- und zweistreifige Abschnitte getrennt voneinander betrachtet. Nach Anwendung mathematischer Verfahren zur Kurvenanpassung ergaben für die einstreifigen Abschnitte Wurzelfunktionen die besten Näherungen zur Beschreibung der Zusammenhänge zwischen q und v. Für die leicht konvexen Ausprägungen in den q-v-Punktwolken der zweistreifigen Abschnitte lieferten lineare Funktionen, die über Verkehrsdichte (k)-Geschwindigkeits-Relationen hergeleitet wurden, die besten Ergebnisse. Mit Hilfe von varianzanalytischen Berechnungen konnten außerdem die Einflüsse der verschiedenen Trassierungsparameter quantifiziert werden. Längsneigung und Schwerverkehrsanteile wurden direkt in den insgesamt zehn q-v-Diagrammen dargestellt. Einflüsse durch die Längen der Teilabschnitte bzw. die Anzahl der Abschnitte wurden über Abminderungen bzw. Erhöhungen der Pkw-Reisegeschwindigkeiten berücksichtigt. Daraus wurden in einem weiteren Schritt Korrekturfaktoren ermittelt. Für den konkreten Fall eines planfreien Knotenpunkttyps im so genannten unkritischen Wechselbereich wurden weitere Einflüsse auf die Pkw-Reisegeschwindigkeit ermittelt, die die Auswirkungen der sich im Knotenpunkt ändernden Verkehrsstärke (nämlich deutlich geringere Geschwindigkeiten gegenüber dem durchgehenden Fahrstreifen) berücksichtigen. Durch die Ergebnisse dieser Arbeit liegen erstmals abgesicherte q-v-Diagramme für freie Strecken mit 2+1-Verkehrsführung einschließlich planfreier Knotenpunkte in unkritischen Wechselbereichen vor, die einen Diskussionsbeitrag für eine Aufnahme in Fortschreibungen der derzeit gültigen Regelwerke darstellen.
Marine Makroalgen besitzen vielversprechende Eigenschaften und Inhaltsstoffe für die Verwendung als Energieträger, Nahrungsmittel oder als Ausgangsstoff für Pharmazeutika. Dass die Quantität und Qualität der in natürlicher Umgebung wachsenden Makroalgen schwankt, reduziert jedoch deren Verwertbarkeit und erschwert die Erschließung hochpreisiger Marktsegmente. Zudem ist eine Ausweitung der Zucht in marinen und küstennahen Aquakulturen in Europa gegenwärtig wenig aussichtsreich, da vielversprechende Areale bereits zum Fischfang oder als Erholungs- bzw. Naturschutzgebiete ausgewiesen sind. Im Rahmen dieser Arbeit wird demzufolge ein geschlossenes Photobioreaktorsystem zur Makroalgenkultivierung entwickelt, welches eine umfassende Kontrolle der abiotischen Kultivierungsparameter und eine effektive Aufbereitung des Kulturmediums vorsieht, um eine standortunabhängige Algenproduktion zu ermöglichen. Zur Bilanzierung des Gesamtkonzeptes einer Kultivierung und Verwertung (stofflich oder energetisch) werden die spezifischen Wachstumsraten und Methanbildungspotentiale der Algenarten Ulva intestinalis, Fucus vesiculosus und Palmaria palmata in praktischen Versuchen ermittelt.
Im Ergebnis wird für den gegenwärtigen Entwicklungsstand der Kultivierungsanlage eine positive Bilanz für die stoffliche Verwertung der Algenart Ulva intestinalis und eine negative Bilanz für die energetische Verwertung aller untersuchten Algenarten erzielt. Wird ein Optimalszenario betrachtet, indem die Besatzdichten und Wachstumsraten der Algen in der Zucht erhöht werden, bleibt die Energiebilanz negativ. Allerdings summieren sich die finanzielle Einnahmen durch einen Verkauf der Algen als Produkt auf jährlich 460.869€ für Ulva intestinalis, 4.010€ für Fucus vesiculosus und 16.913€ für Palmaria palmata. Im Ergebnis ist insbesondere eine stoffliche Verwertung der gezüchteten Grünalge Ulva intestinalis anzustreben und die Produktivität der Zuchtanlage im Sinne des Optimalszenarios zu steigern.
Entwicklung und Untersuchung von alternativen Dicalciumsilicat-Bindern auf der Basis von alpha-C2SH
(2018)
Um den Klimawandel zu begrenzen, müssen die CO2-Emissionen drastisch gesenkt werden [100]. Bis 2050 soll bei der Herstellung von Zement eine Einsparung um 51–60 % auf 0,425–0,350 tCO2/tZement erfolgen [7]. Um dieses Ziel zu erreichen, sind alternative Bindemittelkonzepte notwendig [70].
Diese Arbeit widmet sich alternativen, hochreaktiven Dicalciumsilicat-Bindemitteln, die durch die thermische Aktivierung von α-Dicalcium-Silicat-Hydrat (α-C2SH) erzeugt werden. Das α-C2SH ist eine kristalline C S H-Phase, die im hydrothermalen Prozess, beispielsweise aus Branntkalk und Quarz, herstellbar ist. Die thermische Aktivierung kann bei sehr niedrigen Temperaturen erfolgen (>420 °C) und führt zu einem Multiphasen-C2S-Binder. Als besonders reaktive Bestandteile können x-C2S und röntgenamorphe Anteile enthalten sein. Weiterhin können β C2S, γ C2S und Dellait (Ca6(SiO4)(Si2O7)(OH)2) entstehen.
Im Rahmen der Arbeit wird zunächst der Stand des Wissens zur Polymorphie und Hydratation von C2S zusammengefasst. Es werden bekannte C2S-basierte Bindemittelkonzepte vorgestellt und bewertet.
Die Herstellung von C2S-Bindern wird experimentell im Labormaßstab untersucht. Dabei kommen unterschiedliche Autoklaven und ein Muffelofen zum Einsatz. Die Herstellungsparameter werden hinsichtlich Phasenbestand und Reaktivität optimiert. Die Bindemittel werden durch quantitative Röntgen-Phasenanalyse (QXRD), Rasterelektronenmikroskopie (REM), N2-Adsorption (BET-Methode), Heliumpycnometer, Thermoanalyse (TGA/DSC) und 29Si-MAS- sowie 29Si-1H-CP/MAS-NMR-Spektroskopie charakterisiert. Das Hydratationsverhalten der Bindemittel wird vorrangig mithilfe von Wärmeflusskalorimetrie untersucht. Weiterhin werden in situ und ex situ XRD-, TGA/DSC- und REM-Untersuchungen durchgeführt. Anhand von zwei Bindemitteln wird die Fähigkeit zur Erzielung hoher Festigkeiten demonstriert. Abschließend erfolgt eine Abschätzung zu Energiebedarf und CO2-Emissionen für die Herstellung der untersuchten C2S-Binder.
Die Ergebnisse zeigen, dass für eine hohe Reaktivität der Binder eine niedrige Brenntemperatur und ein geringer Wasserdampfpartialdruck während der thermischen Aktivierung entscheidend sind. Weiterhin muss das hydrothermal hergestellte α-C2SH eine möglichst hohe spezifische Oberfläche aufweisen. Diese Parameter beeinflussen den Phasenbestand und die phasenspezifische Reaktivität. Brenntemperaturen von ca. 420–500 °C führen zu hochreaktiven Bindern, die im Rahmen dieser Arbeit als Niedertemperatur-C2S-Binder bezeichnet werden. Temperaturen von ca. 600–800 °C führen zu Bindern mit geringerer Reaktivität, die im Rahmen dieser Arbeit als Hochtemperatur-C2S bezeichnet werden. Höhere Brenntemperaturen (1000 °C) führen zu Bindemitteln, die innerhalb der ersten drei Tage keine hydraulische Aktivität zeigen.
Die untersuchten Bindemittel können sehr hohe Reaktionsgeschwindigkeiten erreichen. Die Wärmeflusskalorimetrie deutet bei einigen Bindemitteln einen nahezu vollständigen Umsatz innerhalb von drei Tagen an. Durch XRD wurde für einen Binder der vollständige Verbrauch von x-C2S innerhalb von drei Tagen nachgewiesen. Für einen mittels in-situ-XRD und Wärmeflusskalorimetrie untersuchten Binder wurde gezeigt, dass die Phasen vorrangig in der Reihenfolge röntgenamorph > x-C2S > β-C2S > γ-C2S hydratisieren. Hydratationsprodukte sind nadelige C S H-Phasen und Portlandit.
Die Herstellung durch thermische Aktivierung von α-C2SH führt zu tafeligen Bindemittelpartikeln, die teilweise Zwickelräume und Poren zwischen den einzelnen Partikeln einschließen. Um eine verarbeitbare Bindemittelpaste zu erzeugen, sind daher sehr hohe Wasser/Bindemittel-Werte (z. B. 1,4) erforderlich. Der Wasseranspruch kann durch Mahlung etwa auf das Niveau von Zement gesenkt werden.
Die Druckfestigkeitsentwicklung wurde an zwei Niedertemperatur-C2S-Kompositbindern mit 40 % Kalksteinmehl bzw. 40 % Hüttensand untersucht. Aufgrund von theoretischen Betrachtungen zur Porosität in Abhängigkeit des w/b-Wertes wurde dieser auf 0,3 festgelegt. Durch Zugabe von PCE-Fließmittel wurde ein verarbeitbarer Mörtel erhalten. Die Festigkeitsentwicklung ist sehr schnell. Der Kalksteinmehl-Binder erreichte nach zwei Tagen 46 N/mm². Bis Tag 28 trat keine weitere Festigkeitssteigerung ein. Der Hüttensand-Binder erreichte nach zwei Tagen 62 N/mm². Durch die Hüttensandreaktion stieg die Festigkeit bis auf 85 N/mm² nach 28 Tagen an.
Für den Herstellungsprozess von Niedertemperatur-C2S-Binder wurden Energieverbräuche und CO2-Emissionen abgeschätzt. Es deutet sich an, dass, bezogen auf die Bindemittelmenge, keine wesentlichen Einsparungen im Vergleich zur Portlandzementherstellung möglich sind. Für die tatsächlichen Emissionen muss jedoch zusätzlich die Leistungsfähigkeit der Bindemittel berücksichtigt werden. Die Leistungsfähigkeit kann als erforderliche Bindemittelmenge betrachtet werden, die je m³ Beton eingesetzt werden muss, um bestimmte Festigkeits-, Dauerhaftigkeits- und Verarbeitungseigenschaften zu erreichen.
Aus verschiedenen Veröffentlichungen [94, 201, 206] wurde die These abgeleitet, dass die Leistungsfähigkeit eines Bindemittels maßgeblich von der C-S-H-Menge bestimmt wird, die während der Hydratation gebildet wird. Daher wird für NT-C2S-Binder eine außergewöhnlich hohe Leistungsfähigkeit erwartet.
Auf Basis der Leistungsfähigkeitsthese verringern sich die abgeschätzten CO2-Emissionen von NT-C2S-Bindern, sodass gegenüber Portlandzement ein mögliches Einsparpotenzial von 42 % ermittelt wurde.
In der Arbeit werden Verfahren zur baustofflichen und statisch-konstruktiven Beurteilung von bestehenden Gebäuden mit Außenwandelementen aus haufwerksporigem Leichtbeton mit gefügedichten Betondeckschichten entwickelt und beurteilt. Zunächst werden die an 110 Objekten auf der Grundlage von entwickelten Prüfverfahren diagnostizierten baustofflichen Parameter dieser Außenwandelemente dem Vorschriftenwerk der DIN zugeordet und Spektren bzw. Korrelationen ausgewiesen. Im Ergebnis der baustofflichen Beurteilung werden Berechnungsverfahren, welche das tatsächliche Tragverhalten dieser mehrschichtigen Außenwandelemente erfassen, entwickelt. Auf der Grundlage theoretischer und experimenteller Untersuchungen werden diese Berechnungsverfahren beurteilt und dem der ursprünglichen Planung der Gebäude zugrundeliegenden genormten Berechnungsverfahren für einschichtige Querschnitte gegenübergestellt. Desweiteren werden standsicherheitserhöhende Maßnahmen für diese Gebäude diskutiert und der Einfluß von Zementleiminjektagen auf die baustofflichen und statisch-konstruktiven Parameter beschrieben. Darüber hinaus werden die baustofflichen Voraussetzungen für eine Anwendbarkeit von Zementleiminjektagen im haufwerksporigen Leichtbeton ausgewiesen. Die Ergebnisse der Anwendung der in dieser Arbeit entwickelten Prüf- und Berechnungsverfahren auf vorhandene Gebäude im Rahmen von Fassadensanierungsmaßnahmen werden dargestellt und beurteilt.
Der Komplexität einer großen Baumaßnahme steht meist ein relativ unpräzises Termincontrolling gegenüber. Die Gründe dafür liegen in unzureichenden Baufortschrittsinformationen und der Schwierigkeit, eine geeignete Steuerungsmaßnahme auszuwählen. In der Folge kommt es häufig zu Terminverzügen und Mehrkosten.
Ziel der Arbeit war es, die realen Bau-Ist-Zustände eines Bauprojektes so genau zu erfassen, dass es möglich wird, täglich ein zutreffendes Abbild des Baufortschrittes und der Randbedingungen des Bauablaufes zu schaffen und mit Hilfe eines Simulationswerkzeuges nachzubilden. Zu diesem Zweck sollte ein Erfassungskonzept ausgearbeitet werden, mit dessen Hilfe unter Verwendung von Erfassungstechniken aussagekräftige sowie belastbare Daten zu einer auf die Anforderungen der Simulation abgestimmten Datenbasis zusammengeführt werden.
Um der Zielstellung gerecht zu werden, wurde anhand eines Beispiels ein Prozessmodell aufgebaut und definiert, welche Informationen zum Aufbau eines Simulationsmodells, das die reaktive Ablaufplanung unterstützt, erfasst werden müssen. Die einzelnen Prozessgrößen wurden detailliert beschrieben und die Erfassungsgrößen daraus abgeleitet. Weiterhin wurden Aussagen zur Prozessstrukturierung erarbeitet. Somit wurden Informationsstützstellen definiert.
Es wurden Methoden zur Erfassung des Bau-Ist-Zustandes hinsichtlich ihrer Eignung sowie Anwendungsmöglichkeiten analysiert und ausgewählte Anwendungsbeispiele für RFID, Barcodes und Bautagebücher dargestellt. Außerdem wurde betrachtet, welche Daten der baustelleneigenen Bauablaufdokumentation zur Belegung der Informationsstützstellen genutzt werden können. Diese Betrachtung stellte Dokumente in den Fokus, welche aufgrund von Vorschriften oder Vertragsbedingungen ohnehin auf Baustellen erfasst werden müssen.
Schließlich wurden die vorangegangenen Betrachtungen hinsichtlich der Erfassungsgrößen und der Erfassungsmethoden in einem Erfassungskonzept zusammengeführt und eine geeignete Kombination von Erfassungsmethoden entwickelt.
Der Baufortschritt soll anhand der Beschreibung, welchen Status die einzelnen Vorgänge angenommen haben, mit Hilfe eines digitalen Bautagebuchs erfasst werden. Die Randbedingungen, wie die Verfügbarkeit von Personal-, Material- und Geräteressourcen, werden mit Hilfe von RFID-Tags identifiziert, auf denen alle weiteren benötigten Informationen hinterlegt sind. Informationen über Ressourcen, welche geplante Termine wiedergeben, müssen ebenfalls im digitalen Bautagebuch hinterlegt und aktuell gehalten werden. Traditionelle Lieferscheine in Papierform müssen durch digitale Lieferscheine ersetzt werden.
Abgeschlossen wurde die Ausarbeitung des Erfassungskonzeptes durch Ansätze, mit deren Hilfe der Erfassungsaufwand reduziert werden kann. Zu diesem Zweck wurde eine hierarchische Ordnung des Erfassungskonzeptes eingeführt.
Im Ergebnis ist somit ein Erfassungskonzept entstanden, mit dessen Hilfe die realen Bau-Ist-Zustände einer Baumaßnahme so genau erfasst werden können, dass täglich ein zutreffendes Abbild des Baufortschrittes und der Randbedingungen des Bauablaufes in einer Simulations¬umgebung generiert werden kann. Die Erfassungskonzeption liefert eine Datenbasis, die auf die Anforderungen der Simulation abgestimmt ist.
Die Arbeit gliedert sich in drei Komplexe. Der erste Komplex umfaßt Voruntersuchungen zum Ultraschallmeßsystem hinsichtlich Sendefrequenzen, Ankoppeldruck und gerätespezifischen Verzögerungszeiten. Zur schrittweisen Entwicklung eines berührungslos arbeitenden Ultraschallverfahrens werden Grundlagenuntersuchungen zur laserinduzierten Anregung von Ultraschallwellen und zur berührungslosen Signalerfassung mittels Laservibrometer durchgeführt. Der zweite Komplex beinhaltet die Untersuchung von Gefügeschädigungen durch Frostangriff. Als Kennwert der inneren Schädigung wird die Änderung des dynamischen E-Moduls durch Anwendung von akustischen Meßverfahren (z.B. Dehnwellenresonanzverfahren) bestimmt. Der Erfassung und Visualisierung des Schädigungsgradienten wird besondere Bedeutung beigemessen. Der dritte Komplex umfaßt die Untersuchung der Gefügeentwicklung während der Hydratation von Normalbetonen zur Bestimmung der Erhärtungsdruckfestigkeit mit dem Ultraschallmeßsystem CONSONIC 60. Ausgewertet werden kontinuierliche und diskontinuierliche Impulslaufzeitmessungen unter Einbeziehung der Betonrezeptur.
Der junge Beton ist durch thermische und hygrische Einwirkungen sowie die Entwicklung der Festigkeitseigenschaften und die Relaxation der Zwangsspannungen gekennzeichnet. Ziel der Arbeit ist es, ausgehend vom Materialverhalten eine Strategie zur wirlichkeitsnahen Berechnung von Spannungen in jungen Betonbauteilen infolge von Temperaturfeldern zu entwickeln. Die Berechnungsergebnisse wurden für die Temperatur mit Versuchen im Labor und in situ verifiziert; für die Spannung wurde die Überprüfung der Berechnung mit Hilfe von Versuchen im Labor durchgeführt. Am Beispiel eines Hochofenfundamentes wurde zur Minimierung der Beanspruchungen der Einfluss der Betonrezeptur und der Herstellungstechnologie auf die Temperatur und Spannung des Bauteils untersucht. Anschließend wurde daraus der Einfluss der Erhärtung auf die Materialfelder im Querschnitt beurteilt. Die vorliegende Arbeit leistet einen Beitrag zur rechnerischen Lösung von therm! ischen und mechanischen Problemen des jungen Betons.
Die fortschreitende Digitalisierung lässt innovative bauprojekt- und unternehmensinterne Workflows sowie Organisationssysteme entstehen. In diesem Zusammenhang ist die digitale Fortentwicklung durch Building Information Modeling [BIM] als Veränderungsprozess zu definieren, der Organisationsstrukturen nachhaltig umformen wird. BIM ist die führende digitale Arbeitsmethodik im Bauwesen, die entwurfs-, ausführungs- und bauprojektbezogenen Belangen gerecht werden kann. Die deutsche Bauwirtschaft ist im Vergleich zu anderen Branchen jedoch als digital rückständig zu betrachten. Sie ist durch einen Markt gekennzeichnet, an dem kleine und mittelständische Unternehmen [KMU] in hoher Zahl vertreten sind. Aufgrund von Anwendungsunkenntnis der kleinen und mittelständischen Unternehmen fehlt der flächendeckende und durchgängige BIM-Einsatz in Projekten. Mit dem Fokus auf dem Bauprojekt als temporärer Organisation adressiert der vorliegende Forschungsschwerpunkt die Schaffung eines realistischen Abbilds erprobter BIM-Anwendungsfälle in Modellprojekten. Herausgearbeitet werden derzeit bestehende BIM-Herausforderungen für Erstanwender, die die durchgängige BIM-Anwendung in Deutschland bisher hemmen.
Die Forschungsarbeit fokussiert sich auf die Evaluation erfolgskritischer Faktoren [ekF] in BIM-Anwendungsfällen [AWF] im Rahmen einer qualitativen Inhaltsanalyse. Die digitale Transformation birgt strukturrelevante Veränderungsdeterminanten für Organisationen durch die BIM-Anwendung und außerdem Herausforderungen, die in der Anwendungsfallforschung betrachtet werden.
Die Zielstellung ist dreiteilig. Ein entwickeltes BIM-Strukturmodell erfasst die aktuelle Richtlinienarbeit sowie Standardisierung und stellt dadurch den Rahmen notwendiger BIM-Strukturen im Bauprojekt auf. Aus dem Strukturmodell ist ein Modell zur Prüfung von Anwendungsfallrisiken abgeleitet worden. Dieses wird auf gezielt recherchierte BIM-Modellprojekte in Deutschland angewendet, um aus den erfolgskritischen Faktoren der darin praktizierten BIM-Anwendungsfälle eine ekF-Risikomatrix abzuleiten. Daraus geht ein unterstützendes BIM-Anwendungsinstrument in Form von BPMN-Abläufen für KMU hervor. Resultierend aus der Verbindung des BIM-Strukturmodels und der Anwendungsfallanalyse wird in den einzelnen Ablaufübersichten eine Risikoverortung je Anwendungsfall kenntlich gemacht. Unternehmen ohne BIM-Anwendungsexpertise in Bauprojektorganisationen erhalten auf diese Weise einen instrumentellen und niederschwelligen Zugang zu BIM, um die kollaborativen und wirtschaftlichen Vorteile der digitalen Arbeitsmethodik nutzen zu können.
Analysiert werden 18.751 meldepflichtige Arbeitsunfälle aus dem Bauwesen der 90er Jahre. Für die Ermittlung der Unfallursachen finden Ereignisbereichs-Checklisten Verwendung, welche Unfallschwerpunkte prozessbezogen nach Unfallhäufigkeit und –schwere deutlich machen. Sowohl der Gesamtprozess als auch jede einzelne der 14 technologischen Linien und der 3 prozessübergreifenden Unfallgruppen wird durch eine charakteristische Struktur der Verletzungen gekennzeichnet. Diese Strukturen werden mit Hilfe von Verletzungsprofilen dargestellt. Letztere ordnen die Unfälle komplex nach Verletzungsarten und verletzten Körperteilen. Auf Grundlage der statistischen Auswertungen werden prozessbezogene sowie prozessübergreifende Präventionsmaßnahmen u. a. für folgende Bereiche abgeleitet: Planung von Neubauten, Arbeitsvorbereitung, Bauausführung und Unterweisung des Personals.
Landwirtschaftliche Biogasanlagen leisten mit ca. 9.300 Anlagen und einem Anteil von 5,3% an der Stromerzeugung, einen Beitrag zur Erzeugung Erneuer-barer Energien in Deutschland. Die Optimierung dieser Anlagen fördert die nachhaltige Bereitstellung von Strom, Wärme und BioErdgas.
Das Ergebnis dieser Forschungsarbeit ist die Entwicklung eines mehrmethodi-schen Bewertungsansatzes zur Beschreibung der Qualität der Eingangs-substrate als Teil einer ganzheitlichen Prozessoptimierung. Dies gelingt durch die kombinierte Nutzung klassischer Analysesätze, der Nutzung organolepti-scher Parameter – der humansensorischen Sinnenprüfung – und der Integration von prozess- und substratspezifischem Erfahrungswissen. Anhand von halbtechnischen Versuchen werden Korrelationen und Kausalitäten zwi-schen chemisch-physikalischen, biologischen, organoleptischen und erfahrungsbezogenen Parametern erforscht. Die Entwicklung einer Fallbasis mit Hilfe des Fallbasierten Schließens, einer Form Künstlicher Intelligenz, zeigt das Entwicklungs- und Integrationspotenzial der Automatisierung auf, insbesondere auch im Hinblick auf neue Ansätze z.B. Industrie 4.0. Erste Lösungen zur Bewältigung der identifizierten Herausforderungen der mehrmethodischen Prozessbewertung werden vorgestellt.
Abschließend wird ein Ausblick auf den weiteren Forschungsbedarf gegeben und die Übertragbarkeit des mehrmethodischen Bewertungsansatzes auf andere Anwendungsfelder z.B. Bioabfallbehandlung, Kläranlagen angeregt.
In der vorliegenden Arbeit wird die Bedeutung und Funktion des fotografischen Bildes und im Besonderen der Handyfotografie im Kontext von Internet und sozialen Onlinenetzwerken beschrieben, untersucht und diskutiert.
Im Spannungsfeld zwischen sozialwissenschaftlichen Theorien, foto- und medientheoretischem Diskurs sowie ästhetisch künstlerischen Perspektiven wird ausgelotet, welche konkreten visuellen und sozialen Formen die gegenwärtige mobile digitale Bildpraxis angenommen hat, wie sich ihre Gebrauchsweise innerhalb des globalen gesellschaftlichen Alltags darstellt, und in welcher Weise ihr spezielles Zusammenspiel aus „shooting“, „uploading“, „sharing“ zu neuen menschlichen Handlungsmustern und zur Schaffung neuer kultureller Realitäten beiträgt.
Polymer-modified cement concrete (PCC) is a heterogeneous building material with a hierarchically organized microstructure. Therefore, continuum micromechanics-based multiscale models represent a promising method to estimate the mechanical properties. By means of a bottom-up approach, homogenized properties at the macroscopic scale are derived considering microstructural characteristics. The extension of existing multiscale models for the application to PCC is the main objective of this work. For that, cross-scale experimental studies are required. Both macroscopic and microscopic mechanical tests are performed to characterize the elastic and viscoelastic properties of different PCC. The comparison between experiment and model prediction illustrates the success of the modeling approach.
Der Zusammenhang zwischen Schädigung und der Veränderung dynamischer und statischer Eigenschaften von Stahlbetonstrukturen wird untersucht. Auf der einen Seite stehen die statischen Lastversuche in Verbindung mit dynamischen Experimenten an Stahlbetonstrukturen (Platten und Balken). Auf der anderen Seite wird für die Balkenstrukturen ein nichtlineares Stochastisches Finite Elemente Modell entwickelt. Dies berücksichtigt zufällige Material- und Festigkeitseigenschaften durch räumlich korrelierte Zufallsfelder. So werden stochastische Rissentwicklungen für den Stahlbeton simuliert. Für die Berechnungen vieler Realisationen und damit verschiedenartige "Lebensgeschichten" einer Struktur wird als Monte Carlo Methode Latin Hypercube Sampling verwendet. Die Auswertung der Strukturantworten für die Lastgeschichte zeigt den Einfluss der zufälligen Eigenschaften auf die Schädigungsentwicklung. Die Arbeit leistet einen Beitrag zur Bewertung und zum zukünftigen Einsatz dynamischer Untersuchungsmethoden im Bauwesen.
This practice-based research examines platforms and encounters that have a participatory character as a strategy to create lived and shared experiences where new forms of appropriation of the city can emerge. The selected case studies propose and initiate certain urban experiences that induce changes in perception, the exchange of perspectives, and that denaturalize habits and patterns of behavior. I suggest that when these sensitive experiences become imprinted in body memory, they can empower citizens to have more active, creative, and/or critical attitudes towards their environments. Searching for new repertoires of everyday practices that contest commodification of both the body and the city, this thesis is oriented towards open-ended processes of constructing mentalities rather than those of planning changes on the material conditions of public space. It uses forms of academic investigation that merge intellectual debate and experimental practice, joining art, urbanism and social engaged practices in an extradisciplinary (Howes 2007) attitude towards the city. Based on the materials generated by the case studies (combining theoretical knowledge with artistic sensibility), the affective and corporeal involvement of researchers in the situations they analyze and co-create, is sustained in opposition to the traditional academic critical distance.
Die Dissertation exploriert und evaluiert Faktoren für alternative Entwurfsmethoden in räumlich verteilten Arbeitsstrukturen. Der erste Teil motiviert die Arbeit durch eine theoretische Exploration von Alltagserfahrungen im Vergleich zu historischen Analogien beim Einsatz neuer Techniken / Technologien. Im zweiten Teil werden empirisch Faktoren für alternative digitale Entwurfsmethoden exploriert. Im dritten Teil erfolgt eine Theoriebildung und die Entwicklung einer Entwurfsmethode auf der Basis der Explorierten Hypothesen aus Teil eins und zwei. Der vierte und fünfte Teil widmet sich der explanativen Falsifikation der Theorie durch einen Feldversuch. Dieser wird durch eine sozialwissenschaftliche Evaluation unterstützt. Die Ergebnisse werden im Hinblick auf die entwickelte Methode und weitere Untersuchungen diskutiert.
Die Dissertation adressiert das Gebiet der Entwicklung von (räumlicher) Präsenz in computer-generierten virtuellen Umgebungen im speziellen und virtueller Architektur im besonderen. Der erste Teil motiviert die Arbeit, führt in die Terminologie ein und beschreibt die grundlegenden Prinzipien der virtuellen Realität (VR) und von VR-basierter Architektur. Der Schwerpunkt liegt auf sogenannten immersiven VR-Systemen. Der folgende Teil erarbeitet den theoretischen Hintergrund der Entwickling von Präsenz unter besonderer Beachtung philosophischer und kognitiver Ansätze. Ein eigenes Kapitel widmet sich der Klassifikation von Präsenz-Faktoren unter dem Gesichtspunkt der praktischen Gestaltung virtueller Architektur. Letztendlich werden verschiedene empirische Untersuchungen vorgestellt, die die entwickelten Ansaetze evaluieren und beschreiben. Die Ergebnisse werden im Kontext des architektonischen Gestaltens diskutiert.
Die Entwicklung von Hybridtechnologien führt zu vielen neuartigen und effizienten Anwen-dungen. Hybridtechnologien kommen immer dann zum Einsatz, wenn die ausschließliche Nutzung einer Technologie oder eines Werkstoffs nicht zum gewünschten Ergebnis führt. Dann kann durch Kombination unterschiedlicher Werkstoffe oder Technologien ein System geschaffen werden, das in seiner Konfiguration ein Optimum an Eigenschaften darstellt.
Im Bauwesen geht die Entwicklung schon seit jeher in Richtung von immer schlankeren ar-chitektonisch ansprechenden Konstruktionen. In der gegenwärtigen Entwicklung ermöglichen hochtechnologische Kunststoffe und Faserwerkstoffe, wie z. B. Kohlenstofffasern, sehr schlanke, leichte und dennoch hochtragfähiger Konstruktionen. Der wirtschaftliche Aspekt bei der Entwicklung von Tragsystemen bzw. -strukturen erfordert dabei in fast allen Fällen eine kostengünstig effiziente Ausbildung und die Optimierung von Trageigenschaften und Kostenfaktoren. Daher besteht oft die Anforderung nach einem Verbundsystem, bei dem unterschiedliche Materialien in der Art miteinander kombiniert werden, dass jeder Werkstoff für eine bestimmte Beanspruchung angeordnet wird und sein Tragfähigkeitspotenzial optimal ausschöpft. Im Rahmen dieser Arbeit werden an konkreten Beispielen Möglichkeiten aufge-zeigt, Hochtechnologiewerkstoffe in effizienter Art und Weise zu nutzen.
Der Kunststoff-Faser-Verbundwerkstoff stellt eine Möglichkeit dar, den als solches nur für dünnschichtige Klebverbindungen nutzbaren Klebstoff in seinen Anwendungsmöglichkeiten zu erweitern. Die Fasern wirken dabei dem mechanischen Schwachpunkt des Klebstoffs, einer nur geringen Zugfestigkeit, effektiv entgegen. Mit faserverstärkten Klebstoff können Anwendungen realisiert werden, bei denen der Klebstoff auch zur Zugkraftübertragung ge-nutzt wird. Zusätzlich bieten Füllstoffe eine Möglichkeit, die Steifigkeit des Klebstoffs zu stei-gern, was für viele mechanischen Beanspruchungen Vorteile mit sich bringt. Die Kombination aus einem partikelgefüllten und zusätzlich faserverstärkten Klebstoff führt zu einem Ver-bundwerkstoff, der für viele unterschiedliche Anwendungen geeignet ist. Praktische Anwen-dungsmöglichkeiten finden sich in der Herstellung von Fassadenelementen, wo der faserver-stärkte Klebstoff zur Verbindung von Aluminiumhohlprofilen verwendet wird. Weitere Anwen-dungsgebiete erstrecken sich auf die Zugkraftbewehrung von Betontragelementen, bei denen der faserverstärkte Klebstoff die Rolle einer Zugbewehrung an der Betonoberfläche übernimmt.
Alu-CFK-Hybridelemente ermöglichen die Herstellung sehr effizienter Tragsysteme, bei de-nen Gewichtsreduzierung der Tragstruktur und Kosteneinsparungen im Betrieb des Bauwerks gleichermaßen ermöglicht werden. Die CFK-Lamellen werden dabei in den am stärksten längskraftbeanspruchten Bereichen eines Aluminiumtragelementes angeordnet, wodurch sich die Biegetragfähigkeit des dann hybriden Tragelements signifikant erhöht. In der Folge können Gewichtsreduzierungen, verglichen mit herkömmlichen Aluminiumtragelementen, erzielt werden. Weiterhin können die Querschnittsaußenmaße bei Alu-CFK-Hybridelementen deutlich reduziert werden. In der Folge vereinfachen sich der Transport und die Montage dieser Art Tragwerke, was besonders bei fliegenden Bauten einen wesentlichen Vorteil dar-stellt.
Der Einsatz von Glas-Kunststoff-Hybridelementen ermöglicht die Konstruktion transparenter Tragstrukturen in einer optisch einzigartigen Qualität. Die Konstruktion eines Glas-Kunststoff-Hybridelementes ermöglicht ein redundant wirkendes Tragverhalten, bei dem die Steifigkeit und optische Qualität des Glases optimal im Tragsystem genutzt werden können. Der Kunst-stoff stellt eine Art Sicherheitselement dar und übernimmt im Falle eines Glasbruchs die Tragwirkung des Glases. Die Eigenschaft der Vorankündigung eines Systemversagens stellt die Grundlage für eine baupraktische Anwendung des Glas-Kunststoff-Hybridelementes als statisches Tragsystem dar. Durch die Redundanz des Tragverhaltens von Glas-Kunststoff-Hybridelementen ist das Versagen dieser Tragstruktur durch optische oder strukturelle An-zeichen erkennbar und eine Bemessung somit möglich.
Für die mechanische Analyse grundlegender Zusammenhänge in Hybridsystemen können ingenieurmäßige, analytische und numerische Betrachtungen durchgeführt werden. Die in-genieurmäßigen Betrachtungen sind sehr gut geeignet, um Abschätzungen zu treffen, die in später durchgeführten experimentellen Bauteiluntersuchungen oft auch ihre Bestätigung fan-den. Bei Detailbetrachtungen, wie z. B. der Analyse eines nichtlinearen Spannungsverlaufes in mechanisch beanspruchten Klebfugen, bietet eine numerische Betrachtung mittels FEM Vorteile, da sie eine sehr detaillierte Auswertung in Bereichen mit hohen Spannungsgradien-ten ermöglicht. Durch die Anwendung der FEM ist es möglich, Strukturen in unterschiedlichen Skalierungsbereichen zu analysieren und dabei auch Bereiche einzubeziehen, die für experimentelle Untersuchungen nur sehr schwer zugänglich sind. Genaue Kenntnisse über das Materialverhalten der zu analysierenden Stoffe stellen dabei eine wesentliche Grundlage für die Erstellung qualitativ hochwertiger Rechenmodelle dar.
This dissertation concerns the changing role of fashion in the context of modern cities. In approaching this process, the research investigates the media discourse based on representations of fashion by cities and of cities by fashion. Moreover, this research focuses on fashion understood as a multidimensional phenomenon that aims to provide an explanation of urban spaces through fashion terms, actions, and garments. Additionally, cities are considered from the cultural geography approach that highlights the cultural component of urban spaces expressed in social and cultural practices in physical reality. Following this idea, it is suggested here that fashion today not only participates in the urban life as its significant component but also creates city images and representations of urban lifestyle through the fashion paradigm. In other words, fashion redefines urban spaces; at the same time, urban spaces are interpreted as a stage for fashion processes.
By integrating in social research the fields of urban studies and fashion studies, this dissertation offers the discussion considering the fashion phenomenon not only as an urban phenomenon of modern reality. On the one hand, such discussion concerns the re-conceptualization of urban phenomena by the fashion influence; on the other hand, it relates the re-contextualization of fashion in a city. The empirical focus is based on the media context of fashion magazines in which variety of possibilities to represent fashion and cities lead to promising interpretations and analysis. The idea of representation specifies the ways of constructing the notion of urban space as fashionable space and the notion of fashion as placed in the urban context.
Ausgehend von der vielfachen Verwertung der bäuerlichen Kleidung durch den Staat während des Sozialismus in Rumänien wird in der Arbeit das ‚Gemacht-Sein‘ von Volkstrachten befragt entlang von im untersuchten Zeitraum wirkenden Diskursen, wie dem Prozess der Modernisierung oder der Hervorhebung nationaler Werte. Die künstlerische Forschung setzt dabei auf Simulacra (Roland Barthes). Ziel war, tradierte Formate der Wissensaufbereitung und -verbreitung zu appropriieren, so auch von Strategien, die auf der Ebene von Bildern und Sprache agieren, um eine Re-Lektüre sowohl von ‚Volkstracht‘ im Sozialismus als auch von ihren Entsprechungen nach 1989 zu ermöglichen.
Das Kernthema dieser Arbeit ist die Beschäftigung mit den Folgen des Uranbergbaus in dem Gebiet um die ehemalige Abbauregion der Wismut SAG/SDAG in Ronneburg (Ostthüringen). Dieses Thema wird unter historischen, sozialen, kulturanthropologischen und künstlerischen Aspekten betrachtet und in den Zusammenhang mit den weltweiten Voraussetzungen der Nuklearindustrie und Auswirkungen des Uranbergbaus und seiner Folgen gestellt. Die Arbeit legt dar, wie eine Uranbergbaufolgelandschaft entsteht und welches Wissen ist für ein angemessenes Verständnis des Phänomens wichtig ist. Es wird untersucht, ob Kunst bezüglich der Uranbergbaufolgelandschaft einen relevanten Beitrag leisten kann bzw. in welcher Form dies versucht wurde, bzw. stellte Arbeiten vor, die verwandete Themen bearbeitet haben. In Kombination dieser beiden Hauptaspekte geht die Arbeit der Frage nach, welche Faktoren die Uranbergbaufolgelandschaft prägen und ob es sinnvolle Beteiligungsfelder für künstlerisches Forschen oder Handeln gibt sowie welche Bedingungen hierfür erfüllt werdenmüssten. Die Kernthese der Arbeit ist, dass künstlerische Arbeiten im Themenfeld des Uranbergbaus unter bestimmten Bedingungen relevante Beiträge leisten können.
This dissertation investigates the interactions between urban form, allocation of activities, and pedestrian movement in the context of urban planning. The ability to assess the long-term impact of urban planning decisions on what people do and how they get there is of central importance, with various disciplines addressing this topic. This study focuses on approaches proposed by urban morphologists, urban economists, and transportation planners, each aiming the attention at a different part of the form-activity-movement interaction. Even though there is no doubt about the advantages of these highly focused approaches, it remains unclear what is the cost of ignoring the effect of some interactions while considering others. The general aim of this dissertation is to empirically test the validity of the individual models and quantify the impact of this isolationist approach on their precision and bias.
For this purpose, we propose a joined form-activity-movement interaction model and conduct an empirical study in Weimar, Germany. We estimate how the urban form and activities affect movement as well as how movement and urban form affect activities. By estimating these effects in isolation and simultaneously, we assess the bias of the individual models.
On the one hand, the empirical study results confirm the significance of all interactions suggested by the individual models. On the other hand, we were able to show that when these interactions are estimated in isolation, the resulting predictions are biased. To conclude, we do not question the knowledge brought by transportation planners, urban morphologists, and urban economists. However, we argue that it might be of little use on its own.
We see the relevance of this study as being twofold. On the one hand, we proposed a novel methodological framework for the simultaneous estimation of the form-activity-movement interactions. On the other hand, we provide empirical evidence about the strengths and limitations of current approaches.
Der Forschungsgegenstand dieser Arbeit basiert auf einer phänomenologischen Beobachtung internationaler fotografischer Positionen des Selbstportraits, welche seit den 1960er-Jahren verwandte Inhalte, gleichartige bildästhetische Merkmale und ähnliche Prozesse im fotografischen Herstellungsprozess aufweisen. Gemeinsam haben die in dieser Arbeit besprochenen Künstler*innen, dass sich ihre Bildwerdung am eigenen Körper vollzieht und an einen durch Bewegung gekennzeichneten Handlungsablauf geknüpft ist. Die jeweilige Bildsprache weist eine ephemere Ästhetik aus, in welcher inhaltlich sowohl der physische als auch der philosophisch gemeinte Begriff des (Los-)lassens eine Rolle spielt. Die künstlerischen Positionen, die Gegenstand dieser Ph.D.-Arbeit sind, umfassen Arbeiten von Bas Jan Ader (1942 – 1975), Francesca Woodman (1958 – 1981), Bernhard (1937 – 2011) und Anna Blume (*1937), Antoine d’Agata (*1961) und Tom Pope (*1986).
Für die Verminderung der betonspezifischen CO2-Emissionen wird ein verstärkter Einsatz klinkerreduzierter Zemente bzw. Betone angestrebt. Die Reduzierung des Klinkergehaltes darf jedoch nicht zu einer lebensdauerrelevanten Beeinträchtigung der Betondauerhaftigkeit führen. In diesem Zusammenhang stellt der Frost-Tausalz-Widerstand eine kritische Größe dar, da er bei höheren Klinkersubstitutionsraten häufig negativ beeinflusst wird. Erschwerend kommt hinzu, dass für klinkerreduzierte Betone nur ein unzureichender Erfahrungsschatz vorliegt. Ein hoher Frost-Tausalz-Widerstand kann daher nicht ausschließlich anhand deskriptiver Vorgaben gewährleistet werden. Demgemäß sollte perspektivisch auch für frost-tausalzbeanspruchte Bauteile eine performancebasierte Lebensdauerbetrachtung erfolgen.
Eine unverzichtbare Grundlage für das Erreichen dieser Ziele ist ein Verständnis für die Schadensvorgänge beim Frost-Tausalz-Angriff. Der Forschungsstand ist jedoch geprägt von widersprüchlichen Schadenstheorien. Somit wurde als Zielstellung für diese Arbeit abgeleitet, die existierenden Schadenstheorien unter Berücksichtigung des aktuellen Wissensstandes zu bewerten und mit eigenen Untersuchungen zu prüfen und einzuordnen. Die Sichtung des Forschungsstandes zeigte, dass nur zwei Theorien das Potential haben, den Frost-Tausalz-Angriff umfassend abzubilden – die Glue Spall Theorie und die Cryogenic Suction Theorie.
Die Glue Spall Theorie führt die Entstehung von Abwitterungen auf die mechanische Schädigung der Betonoberfläche durch eine anhaftende Eisschicht zurück. Dabei sollen nur bei moderaten Tausalzkonzentrationen in der einwirkenden Lösung kritische Spannungszustände in der Eisschicht auftreten, die eine Schädigung der Betonoberfläche hervorrufen können. In dieser Arbeit konnte jedoch nachgewiesen werden, dass starke Abwitterungen auch bei Tausalz¬konzentrationen auftreten, bei denen eine mechanische Schädigung des Betons durch das Eis auszuschließen ist. Damit wurde die fehlende Eignung der Glue Spall Theorie aufgezeigt.
Die Cryogenic Suction Theorie fußt auf den eutektischen Eigenschaften von Tausalz-lösungen, die im gefrorenen Zustand immer als Mischung auf festem Wassereis und flüssiger, hochkonzentrierter Salzlösung bestehen, solange ihre Eutektikumstemperatur nicht unter¬schritten wird. Die flüssige Phase im salzhaltigen Eis stellt für gefrorenen Beton ein bisher nicht berücksichtigtes Flüssigkeitsreservoir dar, welches trotz der hohen Salzkonzentration die Eisbildung in der Betonrandzone verstärken und so die Entstehung von Abwitterungen verursachen soll. In dieser Arbeit wurde bestätigt, dass die Eisbildung im Zementstein beim Gefrieren in hochkonzentrierter Tausalzlösung tatsächlich verstärkt wird. Das Ausmaß der zusätzlichen Eisbildung wurde dabei auch von der Fähigkeit des Zementsteins zur Bindung von Chloridionen aus der Tausalzlösung beeinflusst.
Zusammenfassend wurde festgestellt, dass die Cryogenic Suction Theorie eine gute Beschreibung des Frost-Tausalz-Angriffes darstellt, aber um weitere Aspekte ergänzt werden muss. Die Berücksichtigung der intensiven Sättigung von Beton durch den Prozess der Mikroeislinsenpumpe stellt hier die wichtigste Erweiterung dar. Basierend auf dieser Überlegung wurde eine kombinierte Schadenstheorie aufgestellt. Wichtige Annahmen dieser Theorie konnten experimentell bestätigt werden. Im Ergebnis wurde so die Grundlage für ein tiefergehendes Verständnis des Frost-Tausalz-Angriffes geschaffen. Zudem wurde ein neuer Ansatz identifiziert, um die (potentielle) Verringerung des Frost-Tausalz-Widerstandes klinkerreduzierter Betone zu erklären.
Die historische Entwicklung frühneuzeitlicher Wohngebäude (1450 bis 1637) der Stadt Meißen wird hier vorwiegend mit bauarchäologischen und baugeschichtlichen Methoden unter zusätzlicher Nutzung farbarchäologischer, dendrochronologischer und archivalischer Quellen untersucht. Eine bau- und raumstrukturelle Differenzierung der Wohnformen unterschiedlicher sozialer Gruppierungen- Handwerker, frühes Bürgertum sowie hoher und niederer Klerus- scheint dabei möglich zu sein. Die Untersuchung fußt auf der teilweise sehr detaillierten Auswertung von Befunden, die in zwanzig Wohngebäuden gewonnen wurden.
The p-Laplace equation is a nonlinear generalization of the well-known Laplace equation. It is often used as a model problem for special types of nonlinearities, and therefore it can be seen as a bridge between very general nonlinear equations and the linear Laplace equation, too. It appears in many problems for instance in the theory of non-Newtonian fluids and fluid dynamics or in rockfill dam problems, as well as in special problems of image restoration and image processing.
The aim of this thesis is to solve the p-Laplace equation for 1 < p < 2, as well as for 2 < p < 3 and to find strong solutions in the framework of Clifford analysis. The idea is to apply a hypercomplex integral operator and special function theoretic methods to transform the p-Laplace equation into a p-Dirac equation. We consider boundary value problems for the p-Laplace equation and transfer them to boundary value problems for a p-Dirac equation. These equations will be solved iteratively by applying Banach’s fixed-point principle. Applying operator-theoretical methods for the p-Dirac equation, the existence and uniqueness of solutions in certain Sobolev spaces will be proved.
In addition, using a finite difference approach on a uniform lattice in the plane, the fundamental solution of the Cauchy-Riemann operator and its adjoint based on the fundamental solution of the Laplacian will be calculated. Besides, we define gener- alized discrete Teodorescu transform operators, which are right-inverse to the discrete Cauchy-Riemann operator and its adjoint in the plane. Furthermore, a new formula for generalized discrete boundary operators (analogues of the Cauchy integral operator) will be considered. Based on these operators a new version of discrete Borel-Pompeiu formula is formulated and proved.
This is the basis for an operator calculus that will be applied to the numerical solution of the p-Dirac equation. Finally, numerical results will be presented showing advantages and problems of this approach.
Im Mittelpunkt der Dissertation steht die Theorie der Differenzenpotentiale, die eng mit der klassischen Potentialtheorie verbunden ist. Vorgestellt wird eine Methode zur Lösung von Randwertproblemen, die nicht auf der Diskretisierung einer Randintegralgleichung beruht, sondern von der Übertragung des Problems in ein Differenzenrandwertproblem ausgeht. Das diskrete Randwertproblem wird mit Hilfe einer Randreduktionsmethode auf eine Randoperatorgleichung transformiert, die detaillierter zu untersuchen ist. Voraussetzung für den Aufbau der Theorie ist die Existenz diskreter Fundamentallösungen. Die Definition der Differenzenpotentiale wird von Ryabenkij übernommen. Seine Herangehensweise führt jedoch zu überbestimmten linearen Gleichungssystemen auf dem Rand. Durch die Aufspaltung des Randpotentials in ein diskretes Einfach- und Doppelschichtpotential wird diese Schwierigkeit in der Dissertation überwunden. Bewiesen werden Eindeutigkeits- und Lösbarkeitsaussagen für Differenzenrandwertprobleme. Das onvergenzverhalten der diskreten Potentiale wird im Kapitel 3 untersucht. Im Kapitel 4 werden numerische Resultate vorgestellt.
Gaze based human-computer-interaction has been a research topic for over a quarter century. Since then, the main scenario for gaze interaction has been helping handicapped people to communicate an interact with their environment. With the rapid development of mobile and wearable display technologies, a new application field for gaze interaction has appeared, opening new research questions.
This thesis investigates the feasibility of mobile gaze based interaction, studying deeply the use of pie menus as a generic and robust widget for gaze interaction as well as visual and perceptual issues on head mounted (wearable) optical see-through displays.
It reviews conventional gaze-based selection methods and investigates in detail the use of pie menus for gaze control. It studies and discusses layout issues, selection methods and applications. Results show that pie menus can allocate up to six items in width and multiple depth layers, allowing a fast and accurate navigation through hierarchical levels by using or combining multiple selection methods. Based on these results, several text entry methods based on pie menus are proposed. Character-by-character text entry, text entry with bigrams and with text entry with bigrams derived by word prediction, as well as possible selection methods, are examined in a longitudinal study. Data showed large advantages of the bigram entry methods over single character text entry in speed and accuracy. Participants preferred the novel selection method based on saccades (selecting by borders) over the conventional and well established dwell time method.
On the one hand, pie menus showed to be a feasible and robust widget, which may enable the efficient use of mobile eye tracking systems that may not be accurate enough for controlling elements on conventional interface. On the other hand, visual perception on mobile displays technologies need to be examined in order to deduce if the mentioned results can be transported to mobile devices.
Optical see-through devices enable observers to see additional information embedded in real environments. There is already some evidence of increasing visual load on the respective systems. We investigated visual performance on participants with a visual search tasks and dual tasks presenting visual stimuli on the optical see-through device, only on a computer screen, and simultaneously on both devices. Results showed that switching between the presentation devices (i.e. perceiving information simultaneously from both devices) produced costs in visual performance. The implications of these costs and of further perceptual and technical factors for mobile gaze-based interaction are discussed and solutions are proposed.
The detailed structural analysis of thin-walled circular pipe members often requires the use of a shell or solid-based finite element method. Although these methods provide a very good approximation of the deformations, they require a higher degree of discretization which causes high computational costs. On the other hand, the analysis of thin-walled circular pipe members based on classical beam theories is easy to implement and needs much less computation time, however, they are limited in their ability to approximate the deformations as they cannot consider the deformation of the cross-section.
This dissertation focuses on the study of the Generalized Beam Theory (GBT) which is both accurate and efficient in analyzing thin-walled members. This theory is based on the separation of variables in which the displacement field is expressed as a combination of predetermined deformation modes related to the cross-section, and unknown amplitude functions defined on the beam's longitudinal axis. Although the GBT was initially developed for long straight members, through the consideration of complementary deformation modes, which amend the null transverse and shear membrane strain assumptions of the classical GBT, problems involving short members, pipe bends, and geometrical nonlinearity can also be analyzed using GBT. In this dissertation, the GBT formulation for the analysis of these problems is developed and the application and capabilities of the method are illustrated using several numerical examples. Furthermore, the displacement and stress field results of these examples are verified using an equivalent refined shell-based finite element model.
The developed static and dynamic GBT formulations for curved thin-walled circular pipes are based on the linear kinematic description of the curved shell theory. In these formulations, the complex problem in pipe bends due to the strong coupling effect of the longitudinal bending, warping and the cross-sectional ovalization is handled precisely through the derivation of the coupling tensors between the considered GBT deformation modes. Similarly, the geometrically nonlinear GBT analysis is formulated for thin-walled circular pipes based on the nonlinear membrane kinematic equations. Here, the initial linear and quadratic stress and displacement tangent stiffness matrices are built using the third and fourth-order GBT deformation mode coupling tensors.
Longitudinally, the formulation of the coupled GBT element stiffness and mass matrices are presented using a beam-based finite element formulation. Furthermore, the formulated GBT elements are tested for shear and membrane locking problems and the limitations of the formulations regarding the membrane locking problem are discussed.
In der Dissertation werden die Unsicherheiten von Baugrundkenngrößen für die Erstellung von geologischen Halbraummodellen auf der Grundlage geostatistischer Methoden entgegen dem bislang üblichen Herangehen mit einbezogen. Infolge der unsicheren Kenngrößen ist das abgeleitete Halbraummodell aus unsicheren geologischen Homogenbereichen zusammengesetzt. In einem probabilistischen Sicherheitsnachweis werden die unsicheren Parameter der Grenzzustandsgleichung und das unsichere geologische Modell gemeinsam betrachtet. Die geostatistischen Methoden sind unterteilt in die experimentelle und theoretische Variographie sowie das Kriging. Die Berücksichtigung von unsicheren Eingangskenngrößen für die geologische Modellbildung führt zu Variogrammfunktionen mit unsicheren Parametern. Bis zum experimentellen Variogramm sind die Variogrammparameter und deren Unsicherheit analytisch nachvollziehbar beziehungsweise abschätzbar. In den weiteren Teilschritten der geostatistischen Modellbildung ist der Einfluss unsicherer Kenngrößen auf Teilergebnisse nur numerisch nachzuvollziehen. Für die umfangreichen Simulationen stand keine Software zur Verfügung. Als Teilleistung dieser Arbeit wurde hierfür die eigenständige Anwendung „GeoStat“ erstellt. Sie ermöglicht die Berechnung und Auswertung der Fortpflanzung von Unsicherheiten auf numerischem Weg in beliebigen Teilschritten bis hin zur geologischen Modellbildung. Mit dem Übergang vom experimentellen zum theoretischen Variogramm sind wesentliche Zusammenhänge zwischen der Unsicherheit der Kenngrößen und der Unsicherheiten der Parameter für das sphärische, das exponentielle und das Gauß’sche Modell mit den Ergebnissen aus GeoStat ableitbar. Der Schwellenwert dieser Funktionen ist proportional zur relativen Kenngrößenunsicherheit. Eine Abschätzung der oberen Schranke des Schwellenwertes und dessen Unsicherheit wird angegeben. Die Reichweite ist ein charakteristischer Kennwert des Untersuchungsgebietes. Die Parameterunsicherheiten der Variogrammfunktionen wirken sich in Relation zur Kenngrößenunsicherheit nur gering auf den Prognosewert am unbeprobten Ort infolge des Kriging aus. Die Varianz des Prognosewertes ist geringer als die Kenngrößenvarianzen, aber nicht vernachlässigbar klein. Es ist grundsätzlich zu unterscheiden, ob die Kenngrößenvarianzen ausschließlich durch unsichere Parameter der theoretischen Variogrammfunktion repräsentiert oder deren Eigenvarianzen zusätzlich im Kriging berücksichtigt werden. Mit der alleinigen Berücksichtigung der unsicheren theoretischen Variogrammparameter wird die Standardabweichung der Krigingprognose unterschätzt. Sie haben maßgeblichen Einfluss auf die Krigingvarianz als Modellvarianz und deren Standardabweichung. Mit der Einbeziehung der Kenngrößenunsicherheiten kann die Standardabweichung der Prognose realistischer simuliert werden. Sie hat keinen direkten Einfluss auf die Krigingvarianz. Der abgeleitete Unsicherheitsplot, ein Resultat dieser Arbeit, kombiniert die Modellunsicherheit des Krigings und die Varianz des Prognosewertes im unbeprobten Untersuchungsgebiet auf der Grundlage des Varianzenfortpflanzungsgesetzes. Für geotechnische Sicherheitsnachweise ist neben der Informationsdichte auch die Optimierung des geologischen Modells wesentlich. Dieses ist vom auszuwertenden Grenzzustand auf der Grundlage eines Sicherheitsnachweises abhängig, so dass vor der geostatistischen Baugrundmodellierung die Sensitivität der in den Grenzzustand eingehenden Kenngrößen zu untersuchen ist. Es hat sich gezeigt, dass die Erhöhung der Datengesamtheit für die geologische Modellbildung nur dann sinnvoll ist, wenn parallel die Unsicherheit der relevanten Kenngrößen im Sicherheitsnachweis innerhalb der unsicheren Homogenbereiche reduziert wird. Für den Referenzstandort führen äquivalent zur Berücksichtigung der unsicheren Steifemoduln die unsicheren Halbraummodelle zur erheblichen Zunahme der erforderlichen Fundamentabmessungen. Die Unsicherheit der Steifemoduln war maßgebender als die Unsicherheiten des Halbraummodells, obwohl die Datenbasis für die geostatistische Modellierung gering war. Bisher werden in probabilistischen Sicherheitsnachweisen zwar unsichere Kenngrößen, jedoch deterministische geologische Modelle betrachtet. Die unsicheren Kenngrößen innerhalb der Homogenbereiche eines geologischen Modells haben im aufgezeigten Sicherheitsnachweis zwar den maßgebenden Einfluss, doch sind die Unsicherheiten im geologischen Modell nicht zu vernachlässigen. Wege und Grenzen der Berücksichtigung dieses kombinierten Einflusses werden mit dieser Arbeit untersucht und aufgezeigt. Das Anwendungsbeispiel zeigt, dass die optimale geologische Modellbildung spezifisch für den Sicherheitsnachweis vorzunehmen ist. Werden die Unsicherheiten der Kenngrößen innerhalb der Homogenbereiche und unsicheren geologischen Modelle berücksichtigt, wird ein schärferes Abbild der Realität erreicht.
Ausgehend von der These, dass es keine völlig neuen Medien gibt, Medien vielmehr aus Veränderungen und Hybridisierungen anderer Medien entstehen, stellt die Arbeit die Untersuchung der Narrativität von Videospielen in einen intermedialen Zusammenhang. Dabei werden die medienspezifischen Differenzen der Erzählung und des Erzählens in Film, Fernsehen und Videospielen fokussiert. Neben der Strukturanalyse wird die visuelle Darstellungsebene sowie der Einbezug des Spielers in den Prozess der Narration betrachtet. Dies mündet in einer Theorie der Beobachtungsperspektive und der Handlungsposition des Spielers (Point-of-View und analog "Point-of-Action"), die wichtige Bestandteile des komplexen Erzählersystems der Videospiele bilden. Damit stellt die Arbeit ein, auf Kriterien der Narrativität basierendes, systematisches Beschreibungsinstrumentarium für Videospiele bereit.
Im Rahmen der Arbeit wird untersucht, welche Awarenessinformationen in kooperativen Situation benötigt werden. Herangezogen wird dazu das Denver Modell von Salvador et al., das fünf Dimensionen bereit stellt, anhand derer jedwede kooperative Situation klassifiziert werden kann: Abhängigkeit, Zeit, Gruppengröße, Ort und Timing. Bei der untersuchten Situation handelt es sich um eine eng gekoppelte, synchrone, örtlich verteilte geplante Kooperationen in einer Kleingruppe. Als konkrete Ausprägung der so bezeichneten Modellinstanz wird das Chat-basierte Rollenspiel betrachtet. In der Arbeit wird untersucht, welche Awarenessinformationen in einer so charakterisierten Situation benötigt werden und wie diese Awarenessinformationen benutzerfreundlich dargestellt werden können, so dass sie den Benutzer dabei unterstützen, sein kooperatives Ziel bzw. seine Teilziele zu erreichen. Dazu wurde eine Analyse des situativen Bedarfs durchgeführt und tragende Awarenessinformationssäulen identifiziert. Um zu Richtlinien zur Darstellung dieser benötigten Awarenessinformationen zu gelangen, wurden Annahmen aufgestellt, zur Überprüfung eine Studie konzipiert und mit drei Designvarianten durchgeführt. Aus der Datenanalyse wurden Schlussfolgerungen gezogen. Für den erstellten Katalog mit Gestaltungsrichtlinien wurden neben diesen Schlussfolgerungen auch Normen und andere Empirie (Vorerfahrung, Literatur) berücksichtigt. Die eingesetzte Evaluationsform hat sich in der Studie bewährt und sie kann für zukünftige Studien verwendet werden. Auch die Anpassung klassischer Usability-Kriterien für die Präsentation von Awarenessinformationen hat sich bewährt. Durch die Analyse des spezifischen Bedarfs in einer kooperativen Situation wird gewährleistet, dass die Benutzer die Unterstützung erhalten, die erforderlich ist, um die Aufgabe effektiv und effizient bearbeiten zu können, ohne dabei mit unnötigen Informationen überlastet zu werden. Durch Bereitstellung empirisch belegter und theoretisch fundierter Gestaltungsrichtlinien schafft diese Arbeit eine Basis für die zukünftige Entwicklung von Groupwareanwendungen, insbesondere solcher, die Werkzeuge für die Computer-vermittelte, synchrone, eng gekoppelte, geplante Kooperationen in Kleingruppen bereitstellen. Die Arbeit liefert wichtige Erkenntnisse, wie Awarenessinformationen dargestellt werden sollen, d.h. in welcher Platzierung bzw. Gruppierung und in welcher Form, so dass der Benutzer alle wesentlichen Awarenessinformationen schnell entdecken und interpretieren kann, ohne dabei überfordert oder von der Primäraufgabe abgelenkt zu werden.
In einer systematischen Interpretation von Vilém Flussers Werk schlägt die Arbeit vor, Flussers Ansatz als einen medienphilosophischen zu verstehen, insofern er das „wie“ der medienphilosophischen Fragestellung in den Mittelpunkt rückt. Medien werden nicht erst dann zu einem wesentlichen Bestandteil von Flussers Philosophie, wenn er sie explizit zum Gegenstand seiner Untersuchungen der gegenwärtigen Kultur und Gesellschaft oder historischer Rückblicke macht; Denken vollzieht sich immer in Medien oder medialen Praktiken, es wird nicht nur von ihnen (mit) geprägt – ohne Medien gäbe es kein Denken und umgekehrt verändert sich Philosophie mit den (jeweils) neuen Medien. Ausgehend von Begriffen oder eher Denkfiguren, die neben dem „was“ des jeweils verhandelten Themas auch das „wie“ der Reflexion selbst adressieren, wird der „Umbruch in der Struktur des Denkens“ zugleich als Beschreibung von Medienumbrüchen verstanden – mit dem Fluchtpunkt des Sprungs in das Universum der Komputation – und als Vollzug der gegenwärtigen Veränderung der „Methode des Denkens“. Flussers (Ver)Suche einer Reflexion, die nicht mehr durch das Medium Schrift strukturiert ist, sondern sowohl alten Medien wie dem Bild – bzw. Praktiken des Abbildens, Darstellens, Einbildens usw. – als auch neuen Medien – dem Komputieren – Geltung verschafft, laufen auf eine widersprüchliche Diagnose des neuen Universums der Komputation (anders: der technischen Bilder) hinaus : eine kybermetisch inspirierte Vision der frei modellierbaren Wirklichkeit(en) einerseits und die Dystopie einer Welt, in der Apparaten Denken, Wahrnehmen und Handeln beherrschen andererseits. Die Arbeit zeigt auf, wie Flusser zu dieser Aporie der Medienreflexion – die weit über Flussers Werk hinaus virulent bleibt – gelangt und wie sie, ausgehend von seiner Figur der Geste, im Sinne einer performativen Medienreflexion gelöst werden könnte.
In recent years, substantial attention has been devoted to thermoelastic multifield problems and their numerical analysis. Thermoelasticity is one of the important categories of multifield problems which deals with the effect of mechanical and thermal disturbances on an elastic body. In other words, thermoelasticity encompasses the phenomena that describe the elastic and thermal behavior of solids and their interactions under thermo-mechanical loadings. Since providing an analytical solution for general coupled thermoelasticity problems is mathematically complicated, the development of alternative numerical solution techniques seems essential.
Due to the nature of numerical analysis methods, presence of error in results is inevitable, therefore in any numerical simulation, the main concern is the accuracy of the approximation. There are different error estimation (EE) methods to assess the overall quality of numerical approximation. In many real-life numerical simulations, not only the overall error, but also the local error or error in a particular quantity of interest is of main interest. The error estimation techniques which are developed to evaluate the error in the quantity of interest are known as “goal-oriented” error estimation (GOEE) methods.
This project, for the first time, investigates the classical a posteriori error estimation and goal-oriented a posteriori error estimation in 2D/3D thermoelasticity problems. Generally, the a posteriori error estimation techniques can be categorized into two major branches of recovery-based and residual-based error estimators. In this research, application of both recovery- and residual-based error estimators in thermoelasticity are studied. Moreover, in order to reduce the error in the quantity of interest efficiently and optimally in 2D and 3D thermoelastic problems, goal-oriented adaptive mesh refinement is performed.
As the first application category, the error estimation in classical Thermoelasticity (CTE) is investigated. In the first step, a rh-adaptive thermo-mechanical formulation based on goal-oriented error estimation is proposed.The developed goal-oriented error estimation relies on different stress recovery techniques, i.e., the superconvergent patch recovery (SPR), L2-projection patch recovery (L2-PR), and weighted superconvergent patch recovery (WSPR). Moreover, a new adaptive refinement strategy (ARS) is presented that minimizes the error in a quantity of interest and refines the discretization such that the error is equally distributed in the refined mesh. The method is validated by numerous numerical examples where an analytical solution or reference solution is available.
After investigating error estimation in classical thermoelasticity and evaluating the quality of presented error estimators, we extended the application of the developed goal-oriented error estimation and the associated adaptive refinement technique to the classical fully coupled dynamic thermoelasticity. In this part, we present an adaptive method for coupled dynamic thermoelasticity problems based on goal-oriented error estimation. We use dimensionless variables in the finite element formulation and for the time integration we employ the acceleration-based Newmark-_ method. In this part, the SPR, L2-PR, and WSPR recovery methods are exploited to estimate the error in the quantity of interest (QoI). By using
adaptive refinement in space, the error in the quantity of interest is minimized. Therefore, the discretization is refined such that the error is equally distributed in the refined mesh. We demonstrate the efficiency of this method by numerous numerical examples.
After studying the recovery-based error estimators, we investigated the residual-based error estimation in thermoelasticity. In the last part of this research, we present a 3D adaptive method for thermoelastic problems based on goal-oriented error estimation where the error is measured with respect to a pointwise quantity of interest. We developed a method for a posteriori error estimation and mesh adaptation based on dual weighted residual (DWR) method relying on the duality principles and consisting of an adjoint problem solution. Here, we consider the application of the derived estimator and mesh refinement to two-/three-dimensional (2D/3D) thermo-mechanical multifield problems. In this study, the goal is considered to be given by singular pointwise functions, such as the point value or point value derivative at a specific point of interest (PoI). An adaptive algorithm has been adopted to refine the mesh to minimize the goal in the quantity of interest.
The mesh adaptivity procedure based on the DWR method is performed by adaptive local h-refinement/coarsening with allowed hanging nodes. According to the proposed DWR method, the error contribution of each element is evaluated. In the refinement process, the contribution of each element to the goal error is considered as the mesh refinement criterion.
In this study, we substantiate the accuracy and performance of this method by several numerical examples with available analytical solutions. Here, 2D and 3D problems under thermo-mechanical loadings are considered as benchmark problems. To show how accurately the derived estimator captures the exact error in the evaluation of the pointwise quantity of interest, in all examples, considering the analytical solutions, the goal error effectivity index as a standard measure of the quality of an estimator is calculated. Moreover, in order to demonstrate the efficiency of the proposed method and show the optimal behavior of the employed refinement method, the results of different conventional error estimators and refinement techniques (e.g., global uniform refinement, Kelly, and weighted Kelly techniques) are used for comparison.
The importance of modern simulation methods in the mechanical analysis of heterogeneous solids is presented in detail. Thereby the problem is noted that even for small bodies the required high-resolution analysis reaches the limits of today's computational power, in terms of memory demand as well as acceptable computational effort. A further problem is that frequently the accuracy of geometrical modelling of heterogeneous bodies is inadequate. The present work introduces a systematic combination and adaption of grid-based methods for achieving an essentially higher resolution in the numerical analysis of heterogeneous solids. Grid-based methods are as well primely suited for developing efficient and numerically stable algorithms for flexible geometrical modeling. A key aspect is the uniform data management for a grid, which can be utilized to reduce the effort and complexity of almost all concerned methods. A new finite element program, called Mulgrido, was just developed to realize this concept consistently and to test the proposed methods. Several disadvantages which generally result from grid discretizations are selectively corrected by modified methods. The present work is structured into a geometrical model, a mechanical model and a numerical model. The geometrical model includes digital image-based modeling and in particular several methods for the theory-based generation of inclusion-matrix models. Essential contributions refer to variable shape, size distribution, separation checks and placement procedures of inclusions. The mechanical model prepares the fundamentals of continuum mechanics, homogenization and damage modeling for the following numerical methods. The first topic of the numerical model introduces to a special version of B-spline finite elements. These finite elements are entirely variable in the order k of B-splines. For homogeneous bodies this means that the approximation quality can arbitrarily be scaled. In addition, the multiphase finite element concept in combination with transition zones along material interfaces yields a valuable solution for heterogeneous bodies. As the formulation is element-based, the storage of a global stiffness matrix is superseded such that the memory demand can essentially be reduced. This is possible in combination with iterative solver methods which represent the second topic of the numerical model. Here, the focus lies on multigrid methods where the number of required operations to solve a linear equation system only increases linearly with problem size. Moreover, for badly conditioned problems quite an essential improvement is achieved by preconditioning. The third part of the numerical model discusses certain aspects of damage simulation which are closely related to the proposed grid discretization. The strong efficiency of the linear analysis can be maintained for damage simulation. This is achieved by a damage-controlled sequentially linear iteration scheme. Finally a study on the effective material behavior of heterogeneous bodies is presented. Especially the influence of inclusion shapes is examined. By means of altogether more than one hundred thousand random geometrical arrangements, the effective material behavior is statistically analyzed and assessed.
Multi-user virtual reality systems enable collocated as well as distributed users to perform collaborative activities in immersive virtual environments. A common activity in this context is to move from one location to the next as a group to explore the environment together. The simplest solution to realize these multi-user navigation processes is to provide each participant with a technique for individual navigation. However, this approach entails some potentially undesirable consequences such as the execution of a similar navigation sequence by each participant, a regular need for coordination within the group, and, related to this, the risk of losing each other during the navigation process.
To overcome these issues, this thesis performs research on group navigation techniques that move group members together through a virtual environment. The presented work was guided by four overarching research questions that address the quality requirements for group navigation techniques, the differences between collocated and distributed settings, the scalability of group navigation, and the suitability of individual and group navigation for various scenarios. This thesis approaches these questions by introducing a general conceptual framework as well as the specification of central requirements for the design of group navigation techniques. The design, implementation, and evaluation of corresponding group navigation techniques demonstrate the applicability of the proposed framework.
As a first step, this thesis presents ideas for the extension of the short-range teleportation metaphor, also termed jumping, for multiple users. It derives general quality requirements for the comprehensibility of the group jumping process and introduces a corresponding technique for two collocated users. The results of two user studies indicate that sickness symptoms are not affected by user roles during group jumping and confirm improved planning accuracy for the navigator, increased spatial awareness for the passenger, and reduced cognitive load for both user roles.
Next, this thesis explores the design space of group navigation techniques in distributed virtual environments. It presents a conceptual framework to systematize the design decisions for group navigation techniques based on Tuckman's model of small-group development and introduces the idea of virtual formation adjustments as part of the navigation process. A quantitative user study demonstrates that the corresponding extension of Multi-Ray Jumping for distributed dyads leads to more efficient travel sequences and reduced workload. The results of a qualitative expert review confirm these findings and provide further insights regarding the complementarity of individual and group navigation in distributed virtual environments.
Then, this thesis investigates the navigation of larger groups of distributed users in the context of guided museum tours and establishes three central requirements for (scalable) group navigation techniques. These should foster the awareness of ongoing navigation activities as well as facilitate the predictability of their consequences for all group members (Comprehensibility), assist the group with avoiding collisions in the virtual environment (Obstacle Avoidance), and support placing the group in a meaningful spatial formation for the joint observation and discussion of objects (View Optimization). The work suggests a new technique to address these requirements and reports on its evaluation in an initial usability study with groups of five to ten (partially simulated) users. The results indicate easy learnability for navigators and high comprehensibility for passengers. Moreover, they also provide valuable insights for the development of group navigation techniques for even larger groups.
Finally, this thesis embeds the previous contributions in a comprehensive literature overview and emphasizes the need to study larger, more heterogeneous, and more diverse group compositions including the related social factors that affect group dynamics.
In summary, the four major research contributions of this thesis are as follows:
- the framing of group navigation as a specific instance of Tuckman's model of small-group development
- the derivation of central requirements for effective group navigation techniques beyond common quality factors known from single-user navigation
- the introduction of virtual formation adjustments during group navigation and their integration into concrete group navigation techniques
- evidence that appropriate pre-travel information and virtual formation adjustments lead to more efficient travel sequences for groups and lower workloads for both navigators and passengers
Overall, the research of this thesis confirms that group navigation techniques are a valuable addition to the portfolio of interaction techniques in multi-user virtual reality systems. The conceptual framework, the derived quality requirements, and the development of novel group navigation techniques provide effective guidance for application developers and inform future research in this area.
Diese Dissertation untersucht Handlungsressourcen von zivilgesellschaftlichen Akteuren in Planungsprozessen um innerstädtische Planungsverfahren. Den theoretischen Rahmen bilden die Kapitalarten von Pierre Bourdieu, die zusammen mit dem Matrixraum von Dieter Läpple zu einem neuen Feldbegriff des ‚Raumfeldes‘ zusammengeführt und operationalisiert wurden. Es handelt sich um eine qualitative Arbeit, die zwischen Stadtsoziologie und Urbanistik zu verorten ist. Als Fallbeispiele wurde die Erweiterung des Berliner Mauerparks sowie das Baugebiet „So! Berlin“ in Berlin gewählt.
With the growing importance of the World Wide Web, the major challenges our society faces are also increasingly affecting the digital areas of our lives. Some of the associated problems can be addressed by computer science, and some of these specifically by data-driven research. To do so, however, requires to solve open issues related to archive quality and the large volume and variety of the data contained.
This dissertation contributes data, algorithms, and concepts towards leveraging the big data and temporal provenance capabilities of web archives to tackle societal challenges. We selected three such challenges that highlight the central issues of archive quality, data volume, and data variety, respectively:
(1) For the preservation of digital culture, this thesis investigates and improves the automatic quality assurance of the web page archiving process, as well as the further processing of the resulting archive data for automatic analysis.
(2) For the critical assessment of information, this thesis examines large datasets of Wikipedia and news articles and presents new methods for automatically determining quality and bias.
(3) For digital security and privacy, this thesis exploits the variety of content on the web to quantify the security of mnemonic passwords and analyzes the privacy-aware re-finding of the various seen content through private web archives.
This cumulative dissertation investigates aspects of consumer decision making in hedonic contexts and its implications for the marketing of media goods through a series of three empirical studies. All three studies take place within a common theoretical framework of decision making models, applying parts of the framework in novel ways to solve real-world marketing research problems (study 1 and 2), and examining theoretical relationships between variables within of the framework (study 3). One notable way in which the studies differ is their theoretical treatment of the hedonic component of decision making, i.e. the role and conceptualization of emotions.
Lettenkeuper- und Schilfsandsteine sind in Thüringen weit verbreitet und wurden häufig als Werk- und Bildhauersandsteine verwendet. Die überwiegend tonig-ferritisch gebundenen Steine sind stark witterungsanfällig. Inzwischen droht ein unwiederbringlicher Substanzverlust an vielen denkmalpflegerisch wertvollen Gebäuden und an plastischen Bildwerken. Die Dissertation gibt einen Überblick über die Vorkommen, Eigenschaften und Schadbilder dieser Sandsteine in Thüringen. Konservierungsmaßnahmen, die in Thüringen in den vergangenen 20 Jahren an Lettenkeuper- und Schilfsandsteinen vorgenommen wurden, werden ausgewertet und neue Erkenntnisse zur Konservierung dieser Sandsteine vorgestellt.
Rapid urbanisation that is not accompanied by socio-economic development strains the capacity of local and national governments to provide even basic services such as shelter. Informal settlements i.e. settlements not built or developed according to the formal regulations have become a solution to many urban dwellers in developing countries. In Tanzania informal settlements accommodate people from low, middle and high income groups. The study explores the nature of potentials and challenges posed by the existence of mixed socio-economic groups in informal settlements, including an assessment of what can be done to optimise utilisation of potentials and mitigation of conflicts. Using a case study strategy, the study was conducted in Dar es Salaam city focusing on Makongo mixed informal settlement.
The results show that mixed informal settlements are as a result of several factors including uncoordinated energies of people. The urban development forces that bring change in the development of the city are stronger than the public states capacity to coordinate and manage them. Informal settlements also offer user-friendly land tenure, flexibility in house construction and proximity to livelihoods. Other factors include the nature of socio-economic living patterns and extension of urban boundaries. Community members operate using social norms. Advantages of mixed informal settlements include availability of plots according to needs and affordability while a disadvantage is, people of different socio-economic groups perceive problems differently.
For policies to be effective, their formulation should be derived from what is happening on the ground i.e. addressing informal settlements according to their heterogeneity. Moreover, empowered local authorities can assist in implementing national development plans; also actors in land development including government institutions, non-governmental institutions, financial institutions, private sector, professionals, political leaders, research institutions, policy-makers and training institutions need to recognise, understand and respect each other’s roles, and pull resources together to minimise problems related to informality in land development; utilise potentials and minimise challenges in mixed informal settlements in Dar es Salaam.
Key words: Informal settlements, land development, urbanisation
Modern digital material approaches for the visualization and simulation of heterogeneous materials allow to investigate the behavior of complex multiphase materials with their physical nonlinear material response at various scales. However, these computational techniques require extensive hardware resources with respect to computing power and main memory to solve numerically large-scale discretized models in 3D. Due to a very high number of degrees of freedom, which may rapidly be increased to the two-digit million range, the limited hardware ressources are to be utilized in a most efficient way to enable an execution of the numerical algorithms in minimal computation time. Hence, in the field of computational mechanics, various methods and algorithms can lead to an optimized runtime behavior of nonlinear simulation models, where several approaches are proposed and investigated in this thesis.
Today, the numerical simulation of damage effects in heterogeneous materials is performed by the adaption of multiscale methods. A consistent modeling in the three-dimensional space with an appropriate discretization resolution on each scale (based on a hierarchical or concurrent multiscale model), however, still contains computational challenges in respect to the convergence behavior, the scale transition or the solver performance of the weak coupled problems. The computational efficiency and the distribution among available hardware resources (often based on a parallel hardware architecture) can significantly be improved. In the past years, high-performance computing (HPC) and graphics processing unit (GPU) based computation techniques were established for the investigationof scientific objectives. Their application results in the modification of existing and the development of new computational methods for the numerical implementation, which enables to take advantage of massively clustered computer hardware resources. In the field of numerical simulation in material science, e.g. within the investigation of damage effects in multiphase composites, the suitability of such models is often restricted by the number of degrees of freedom (d.o.f.s) in the three-dimensional spatial discretization. This proves to be difficult for the type of implementation method used for the nonlinear simulation procedure and, simultaneously has a great influence on memory demand and computational time.
In this thesis, a hybrid discretization technique has been developed for the three-dimensional discretization of a three-phase material, which is respecting the numerical efficiency of nonlinear (damage) simulations of these materials. The increase of the computational efficiency is enabled by the improved scalability of the numerical algorithms. Consequently, substructuring methods for partitioning the hybrid mesh were implemented, tested and adapted to the HPC computing framework using several hundred CPU (central processing units) nodes for building the finite element assembly. A memory-efficient iterative and parallelized equation solver combined with a special preconditioning technique for solving the underlying equation system was modified and adapted to enable combined CPU and GPU based computations.
Hence, it is recommended by the author to apply the substructuring method for hybrid meshes, which respects different material phases and their mechanical behavior and which enables to split the structure in elastic and inelastic parts. However, the consideration of the nonlinear material behavior, specified for the corresponding phase, is limited to the inelastic domains only, and by that causes a decreased computing time for the nonlinear procedure. Due to the high numerical effort for such simulations, an alternative approach for the nonlinear finite element analysis, based on the sequential linear analysis, was implemented in respect to scalable HPC. The incremental-iterative procedure in finite element analysis (FEA) during the nonlinear step was then replaced by a sequence of linear FE analysis when damage in critical regions occured, known in literature as saw-tooth approach. As a result, qualitative (smeared) crack initiation in 3D multiphase specimens has efficiently been simulated.
Reine Calciumsulfatbindemittel weisen eine hohe Löslichkeit auf. Feuchteinwirkung führt zudem zu starken Festigkeitsverlusten. Aus diesem Grund werden diese Bindemittel ausschließlich für Baustoffe und -produkte im Innenbereich ohne permanenten Feuchtebeanspruchung eingesetzt. Eine Möglichkeit, die Feuchtebeständigkeit zu erhöhen, ist die Beimischung puzzolanischer und zementärer Komponenten. Diese Mischsysteme werden Gips-Zement-Puzzolan-Bindemittel (kurz: GZPB) genannt.
Mischungen aus Calciumsulfaten und Portlandzementen allein sind aufgrund der treibenden Ettringitbildung nicht raumbeständig. Durch die Zugabe von puzzolanischen Stoffen können aber Bedingungen im hydratisierenden System geschaffen werden, welche eine rissfreie Erhärtung ermöglichen. Hierfür ist eine exakte Rezeptierung der GZPB notwendig, um die GZPB-typischen, ettringitbedingten Dehnungen zeitlich zu begrenzen. Insbesondere bei alumosilikatischen Puzzolanen treten während der Hydratation gegenüber rein silikatischen Puzzolanen deutlich höhere Expansionen auf, wodurch die Gefahr einer potenziellen Rissbildung steigt. Für die Erstellung geeigneter GZPB-Zusammensetzungen bedarf es daher einer Methodik, um raumbeständig erhärtende Systeme sicher von destruktiven Mischungen unterscheiden zu können.
Sowohl für die Rezeptierung als auch für die Anwendung der GZPB existieren in Deutschland keinerlei Normen. Darüber hinaus sind die Hydratationsvorgänge sowie die entstehenden Produkte nicht konsistent beschrieben. Auch auf die Besonderheiten der GZPB mit alumosilikatischen Puzzolanen wird in der Literatur nur unzureichend eingegangen.
Ziel war es daher, ein grundlegendes Verständnis der Hydratation sowie eine sichere Methodik zur Rezeptierung raumbeständig und rissfrei erhärtender GZPB, insbesondere in Hinblick auf die Verwendung alumosilikatischer Puzzolane, zu erarbeiten. Darüber hinaus sollte systematisch der Einfluss der Einzelkomponenten auf Hydratation und Eigenschaften dieser Bindemittelsysteme untersucht werden. Dies soll ermöglichen, die GZPB für ein breites Anwendungsspektrum als Bindemittel zu etablieren, und somit vorteilhafte Eigenschaften der Calciumsulfate (geringe Schwindneigung, geringe CO2-Emission etc.) mit der Leistungs-fähigkeit von Zementen (Wasserbeständigkeit, Festigkeit, Dauerhaftigkeit etc.) zu verbinden.
Als Ausgangsstoffe der Untersuchungen zu den GZPB wurden Stuckgips und Alpha-Halbhydrat als Calciumsulfatbindemittel in unterschiedlichen Anteilen im GZPB verwendet. Die Puzzolan-Zement-Verhältnisse wurden ebenfalls variiert. Als Puzzolan kam für den Großteil der Untersuchungen ein alumosilikatisches Metakaolin zum Einsatz. Als kalkspendende Komponente diente ein reiner Portlandzement.
Das Untersuchungsprogramm gliederte sich in 4 Teile. Zuerst wurde anhand von CaO- und pH-Wert-Messungen in Suspensionen sowie dem Längenänderungsverhalten von Bindemittelleimen verschiedener Zusammensetzungen eine Vorauswahl geeigneter GZPB-Rezepturen ermittelt. Danach erfolgten, ebenfalls an Bindemittelleimen, Untersuchungen zu den Eigenschaften der als geeignet eingeschätzten GZPB-Mischungen. Hierzu zählten Langzeitbetrachtungen zur rissfreien Erhärtung bei unterschiedlichen Umgebungsbedingungen sowie die Festigkeitsentwicklung im trockenen und feuchten Zustand. Im nächsten Schritt wurde anhand zweier exemplarischer GZPB-Zusammensetzungen (mit silikatischen und alumosilikatischen Puzzolan) die prinzipiell mögliche Phasenzusammensetzung unter Variation des Puzzolan-Zement-Verhältnisses (P/Z-Verhältnis) und des Calciumsulfatanteils im thermodynamischen Gleichgewichtszustand berechnet. Hier wurde im Besonderen auf Unterschiede der silikatischen und alumosilikatischen Puzzolane eingegangen. Im letzten Teil der Untersuchungen wurden die Hydratationskinetik der GZPB sowie die Gefügeentwicklung näher betrachtet. Hierfür wurden die Porenlösungen chemisch analysiert und Sättigungsindizes berechnet, sowie elektronenmikropische, porosimetrische und röntgenografische Untersuchungen durchgeführt. Abschließend wurden die Ergebnisse gesamtheitlich interpretiert, da die Ergebnisse der einzelnen Untersuchungsprogramme miteinander in Wechselwirkung stehen.
Als hauptsächliche Hydratationsprodukte wurden Calciumsulfat-Dihydrat, Ettringit und
C-(A)-S-H-Phasen ermittelt, deren Anteile im GZPB neben dem Calciumsulfatanteil und dem Puzzolan-Zement-Verhältnis auch deutlich vom Wasserangebot und der Gefügeentwicklung abhängen. Bei Verwendung von alumosilikatischen Puzzolans kommt es wahrscheinlich zur teilweisen Substitution des Siliciums durch Aluminium in den C-S-H-Phasen. Dies erscheint aufgrund des Nachweises der für diese Phasen typischen, folienartigen Morphologie wahrscheinlich. Portlandit wurde in raumbeständigen GZPB-Systemen nur zu sehr frühen Zeitpunkten in geringen Mengen gefunden.
In den Untersuchungen konnte ein Teil der in der Literatur beschriebenen, prinzipiellen Hydratationsabläufe bestätigt werden. Bei Verwendung von Halbhydrat als Calciumsulfatkomponente entsteht zuerst Dihydrat und bildet die Primärstruktur der GZPB. In dieses existierende Grundgefüge kristallisieren dann das Ettringit und die C-(A)-S-H-Phasen. In den GZPB sorgen entgegen der Beschreibungen in der Literatur nicht ausschließlich die
C-(A)-S-H-Phasen zur Verbesserung der Feuchtebeständigkeit und der Erhöhung des Festigkeitsniveaus, sondern auch das Ettringit. Beide Phasen überwachsen im zeitlichen Verlauf der Hydratation die Dihydratkristalle in der Matrix und hüllen diese – je nach Calciumsulfatanteil im GZPB – teilweise oder vollständig ein. Diese Umhüllung sowie die starke Gefügeverdichtung durch die C-(A)-S-H-Phasen und das Ettringit bedingen, dass ein lösender Angriff durch Wasser erschwert oder gar verhindert wird. Gleichzeitig wird die Gleitfähigkeit an den Kontaktstellen der Dihydratkristalle verringert.
Eine rissfreie und raumbeständige Erhärtung ist für die gefahrlose Anwendung eines GZPB-Systems essentiell. Hierfür ist die Kinetik der Ettringitbildung von elementarer Bedeutung. Die gebildete Ettringitmenge spielt nur eine untergeordnete Rolle. Selbst ausgeprägte, ettringitbedingte Dehnungen und hohe sich bildende Mengen führen zu frühen Zeitpunkten, wenn die Dihydratkristalle noch leicht gegeneinander verschiebbar sind, zu keinen Schäden. Bleibt die Übersättigung bezüglich Ettringit und somit auch der Kristallisationsdruck allerdings über einen langen Zeitraum hoch, genügen bereits geringe Ettringitmengen, um das sich stetig verfestigende Gefüge stark zu schädigen.
Die für die raumbeständige Erhärtung der GZPB notwendige, schnelle Abnahme der Ettringitübersättigung wird hauptsächlich durch die Reaktivität des Puzzolans beeinflusst. Die puzzolanische Reaktion führt zur Bindung des aus dem Zement stammenden Calciumhydroxid durch die Bildung von C-(A)-S-H-Phasen und Ettringit. Hierdurch sinkt die Calcium- und Hydroxidionenkonzentration in der Porenlösung im Verlauf der Hydratation, wodurch auch die Übersättigung bezüglich Ettringit abnimmt. Je höher die Reaktivität des Puzzolans ist, desto schneller sinkt der Sättigungsindex des Ettringits und somit auch der Kristallisationsdruck. Nach Unterschreiten eines noch näher zu klärendem Grenzwert der Übersättigung stagnieren die Dehnungen. Das Ettringit kristallisiert bzw. wächst nun bevorzugt in den Poren ohne eine weitere, äußere Volumenzunahme zu verursachen.
Um eine schadensfreie Erhärtung des GZPB zu gewährleisten, muss gerade in der frühen Phase der Hydratation ein ausreichendes Wasserangebot gewährleistet werden, so dass die Ettringitbildung möglichst vollständig ablaufen kann. Andernfalls kann es bei einer Wiederbefeuchtung zur Reaktivierung der Ettringitbildung kommen, was im eingebauten Zustand Schäden verursachen kann. Die Gewährleistung eines ausreichenden Wasserangebots ist im GZPB-System nicht unproblematisch. In Abhängigkeit der GZPB-Zusammensetzung können sich große Ettringitmengen bilden, die einen sehr hohen Wasserbedarf aufweisen. Deshalb kann es, je nach verwendeten Wasser-Bindemittel-Wert, im Bindemittelleim zu einem Wassermangel kommen, welcher die weitere Hydratation verlangsamt bzw. komplett verhindert. Zudem können GZPB-Systeme teils sehr dichte Gefüge ausbilden, wodurch der Wassertransport zum Reaktionsort des Ettringits zusätzlich behindert wird.
Die Konzeption raumbeständiger GZPB-Systeme muss anhand mehrerer aufeinander aufbauender Untersuchungen erfolgen. Zur Vorauswahl geeigneter Puzzolan-Zementverhältnisse eignen sich die Messungen der CaO-Konzentration und des pH-Wertes in Suspensionen. Als alleinige Beurteilungsgrundlage reicht dies allerdings nicht aus. Zusätzlich muss das Längenänderungs-verhalten beurteilt werden. Raumbeständige Mischungen mit alumosilikatischen Puzzolanen zeigen zu frühen Zeitpunkten starke Dehnungen, welche dann abrupt stagnieren. Stetige – auch geringe – Dehnungen weisen auf eine destruktive Zusammensetzung hin.
Mit diesem mehrstufigen Vorgehen können raumbeständige, stabile GZPB-Systeme konzipiert werden, so dass die Zielstellung der Arbeit erreicht wurde und ein sicherer praktischer Einsatz dieser Bindemittelart gewährleistet werden kann.
Eine zielführende Anwendung von Zusatzmitteln bei der Ausführung anspruchsvoller Betonbauten setzt einen hohen Kenntnisstand bezüglich der Wirkungsmechanismen und Interaktionen der einzelnen Betonkomponenten voraus. In der vorliegenden Arbeit wurden einige Aspekte der Zementhydratation in Abhängigkeit von der Fließmittelzugabe diskutiert. Im Ergebnis liefern die Teile eins und zwei der vorliegenden Arbeit einen Beitrag dazu, Veränderungen der Fließfähigkeit von Zementleim in Abhängigkeit der Zementhydratation und Fließmittelzugabe besser zu verstehen. Es konnte so z.B. gezeigt werden, dass Bildung langprismatischer Kristalle (z.B. Syngenit, Gips) die Fließfähigkeit von Zementleim und Beton vermindert. Infolge anhaltender Scherung von Zementleimen / Betonen mit langprismatischen Kristallen wird ein Zuwachs an Fließfähigkeit erzielt. Elektronenmikroskopische Untersuchungen zeigen, dass dies darauf zurückzuführen ist, dass die Kristalle in eine Vorzugsorientierung relativ zur Scherbewegung rotieren. Weiterhin wurde der Mechanismus einer so genannten Zement-Fließmittel-Inkompatibilität aufgezeigt. Durch diese Erweiterung des Kenntnisstandes zum Einfluss von Fließmitteln auf die Zementhydratation ist es möglich der Zement-Fließmittel-Inkompatibilität durch gezielte Auswahl des Zementes vorzubeugen. Dabei ist besonders darauf zu achten, dass der Zement ein ausgewogenes Verhältnis an zur Reaktion zur Verfügung stehendem C3A und Menge / Löslichkeit des Abbindereglers besitzt. Fließmittel verändern nicht nur die Verarbeitungseigenschaften sondern auch die Festigkeit und Dauerhaftigkeit von Zementstein und Beton. Im dritten Teil der vorliegenden Arbeit wird daher der Einfluss der Fließmittel und deren verflüssigender Wirkung auf die Festigkeitsentwicklung von Zementstein und C3S untersucht. Es konnte gezeigt werden, dass durch die dispergierende Wirkung der Fließmittel auch ohne Verminderung des Wasserzementwertes, eine Verdichtung des Zementsteingefüges erzielt werden kann. Es konnte weiterhin gezeigt werden, dass durch die Erhöhung der Partikelpackungsdichte am Anfang der Hydratation die Ausbildung der festigkeitsgebenden C-S-H Phasen verändert wird. Ein dichteres Verwachsen dieser nanostrukturierten C-S-H Phasen ermöglicht einen zusätzlichen Festigkeitszuwachs.
Problem definition and research objectives
1. The production of Portland cement clinker causes approx. 5% to 8% of the annual man-made CO2 emissions. This is due to the usage of mainly fossil fuel (approx. 40 % of the total CO2) and because of the decarbonation of limestone as a main component of the raw meal (approx. 60 % of the total CO2).
2. Various strategies are applied in order to reduce the green-house gas-emissions, such as optimizing the process of clinker production, the use of alternative fuel and the partial substitution of the clinker in blended cement by so-called SCM (supplementary cementitious materials). Hereby blast-furnace slag, fly ash and limestone are the most used materials.
3. Quaternary systems containing three SCM simultaneously besides Portland cement contribute to the reduction of CO2 emissions due to the decrease of the clinker content. In addition, such systems allow to use blast-furnace slag and fly ash in the most economical way and provide the possibility to account for shortages of SCM on the market.
4. Blast-furnace slag and fly ash show similarities in their principal chemical compositions such that similar hydrates are formed during their reaction in presence of Portland cement. Compared to ternary systems based on blast-furnace slag or fly ash besides limestone, quaternary systems that contain both, blast-furnace slag and fly ash, simultaneously besides limestone, are expected to perform similar in terms of phase assemblage and strength development.
5. The use of SCM as cement replacing materials is limited due to their generally slower reaction compared to neat cement which also leads to lower strength development, especially in the early stage of the hydration up to 28 d. To account for this it is necessary to study the reactivity of SCM such as blast-furnace slag and fly ash in detail in order to develop strategies to enhance the reactivity and thereby the strength development of SCM-containing systems.
6. The early hydration of clinker phases is studied in detail, mainly in diluted systems. It is unclear if processes that were found to control the reaction of such model systems are also prevailing in concentrated cement pastes under realistic water-to-solid ratios. Deeper insight to this aspect is needed to better understand interactions of neat Portland cement and SCM in the first hours of hydration.
State-of-the-art
7. Increasing Ca-concentrations lead to decreasing dissolution rates of C3S and C2S in diluted systems.
8. The hydration kinetics of C3S is controlled by the interplay of undersaturation with respect to C3S and oversaturation with respect to C-S-H.
9. Increasing Al-concentrations lead to a retardation of the hydration of C3S. It is unclear if the uptake of aluminum in C-S-H to form C-(A)-S-H which has a significantly lower growth rate than pure C-S-H or a retarding effect of Al on the dissolution of C3S causes this phenomenon.
10. The surface of limestone provides excellent conditions for the nucleation and growth of C-S-H such that significantly more C-S-H nuclei are formed in presence of limestone compared to other SCM.
11. The reactivity of blast-furnace slag and fly ash depends on the particle size as well as on the intrinsic reactivity of especially the amorphous phases.
12. An increase in network modifying oxides (e.g. CaO) in the chemical composition of amorphous (calcium)aluminosilicates leads to an increasingly depolymerized network which in turn causes increasing reactivity. The role of amphoteric oxides (Al2O3, Fe2O3) that can be present as network modifying oxides as well as network forming oxides is not completely solved.
13. CO2-containing AFm-phases are thermodynamically more stable than monosulfoaluminate. This indirectly stabilizes the voluminous ettringite which causes a higher total volume of hydrates and lower porosity whereby higher compressive strength is reached.
14. Only a few percent of limestone in blended cement reacts chemically dependent on the Al2O3 available for reaction. Al2O3 that is provided by the reaction of Portland cement but also by the dissolution of SCM, especially by fly ash, reacts to form hemicarboaluminate which is transformed to monocarboaluminate as the hydration proceeds.
Methodology
15. The influence of SCM on the early hydration of Portland cement in binary (including blast-furnace slag or fly ash or limestone or quartz) and ternary (including fly ash and limestone) systems was investigated applying isothermal calorimetry and analysis of the pore solution chemistry. Calculated saturation indices and solubility products of relevant phases were correlated with heat development. Based on the gained data it was reviewed if mechanisms that control the hydration of pure phases in diluted systems are also prevailing in cement pastes under realistic conditions.
16. The influence of the chemical composition of synthetic glasses on their dissolution at high pH was investigated in highly diluted systems using ion chromatography. Pozzolanity tests were conducted on pastes using simplified model systems and glass-blended Portland cements. The process of the glass dissolution was investigated by isothermal calorimetry and by thermogravimetry. Correlation of experimentally determined total bound water with bound water determined by mass balance calculations as a function of amount of glass reacted allowed to estimate the degree of glass reaction in the pastes. Further on selective dissolution experiments were carried out to crosscheck the results of the bound water/mass balance approach.
17. The reaction kinetics of quaternary pastes containing blast-furnace slag and fly ash simultaneously in the presence of limestone were investigated up to 28 d using isothermal calorimetry and chemical shrinkage measurements. In addition strength tests on mortar bars were carried out.
18. Pastes of quaternary blends were also investigated in terms of hydrate assemblage at ages of up to 182 d. Thermodynamic calculations regarding total volume of hydrates as a function of limestone and fly ash/blast-furnace slag content were conducted. The calculations were supported by thermogravimetric determination of bound water and portlandite content as well as qualitative X-ray diffraction. The results were correlated with strength tests on mortar bars.
19. The pore solutions of hydrated quaternary blends were extracted and investigated by means of ion chromatography at ages of up to 728 d. Based on the ion concentrations in the solutions saturation indices were calculated for relevant phases. In order to gain better insight to the blast-furnace slag reaction sulphate speciation was carried out at two blast furnace slag levels (20 and 30 wt.%) for selected samples up to 91 d of hydration and at 91 d for the whole matrix under investigation.
Main results
20. Investigations on the early hydration kinetics of binary systems showed a higher heat flow in presence of SCM compared to neat Portland cement. This is caused by the higher surface area that is available for the nucleation of hydrates and by the lower (over)saturation with respect to C-S-H. An increase in the Ca-concentration in the pore solution did not cause lower dissolution rates of C3S as was reported for pure phases in diluted systems. The highest dissolution was observed in the presence of limestone, i.e. at the highest Ca-concentration. The general trend of the reaction rate is inversely related to the degree of undersaturation with respect to C3S. The more undersaturated the faster the observed reaction. The presence of increasing Al-concentrations caused a retardation of the reaction which is in line with investigations on pure phases in diluted systems. Higher sulphate concentrations could be detected for the fly ash containing blend which possibly hindered ettringite precipitation and results in higher Al-concentrations. Correspondingly the low sulphate concentrations lead to lower Al-concentrations in the presence of quartz, blast-furnace slag and limestone compared to fly ash.
21. The early hydration kinetics of quaternary systems is significantly accelerated in the presence of limestone while fly ash leads to retardation. Compared to reference systems containing inert quartz, investigations by means of isothermal calorimetry and chemical shrinkage revealed an acceleration caused by blast-furnace slag. Additions of fly ash, limestone or mixtures thereof introduced another acceleration but differences are too small to be significant and clear distinguishing between the various SCM is not possible.
22. Investigations on the reactivity of synthetic glasses showed that increasing amounts of network modifying oxides caused an increase in reactivity and dissolution rates. The results reveal that Al2O3 acts mainly as network modifying oxide in all investigated glasses. Experimentally determined bound water (thermogravimetric experiments) in model systems and blended cements can be compared with bound water determined by mass balance calculations carried out as a function of the amount of glass reacted. This enables to estimate the degree of glass reaction.
23. The actual content of blast-furnace slag, fly ash or limestone does not exert significant influence on the development of compressive strength up to 7 d. At later ages thermodynamic calculations predict a degree of CaCO3 reaction of 2 to 5 wt.%. This leads to the formation of hemicarbonate and monocarbonate whereby ettringite is indirectly stabilized. As a result the total amount of solids is increased and compressive strength shows a slight maximum. Hereby the degree of CaCO3 reaction depends on the Al2O3 available for reaction which is not only provided by the dissolution of Portland cement but especially by the dissolution of the fly ash.
24. In general the presence of blast-furnace slag and fly ash in the presence of limestone exerts little influence on the hydrate assemblage. The substitution of some of the blast-furnace slag by fly ash leads to a slight decrease of portlandite and C-S-H and gives rise to the formation of more monocarbonate and hemicarbonate. Portlandite is consumed in a pozzolanic reaction with the fly ash whereby C-S-H is formed. However, the low reactivity of the fly ash causes a decrease in the amount of C-S-H formed. Thereby a lower total volume of hydrates is generated which is in line with slightly lower compressive strength in case of increasing fly ash content. The overall influence is small and all systems investigated reach strength class 42.5 N according to EN 196-1.
25. Corresponding to the investigations of the hydrate assemblage the pore solution chemistry of quaternary systems showed only small variations. Depending on the fly ash content the highest variations are observed for aluminium, i.e. increasing fly ash content leads to higher Al-concentrations. Another effect of increasing fly ash contents is an increasing undersaturation with respect to portlandite and a decreasing undersaturation with respect to strätlingite indicating the dissolution of portlandite.
26. The total concentration of sulfur in the pore solution is controlled by sulphate (SO42–) while the concentrations of sulphite (SO32–) and thiosulphate (S2O32–) were very low. Up to 2 d of hydration about 90 % of the total sulphur is present as SO42–. After 91 d this value is reduced to about 36 % while about 28 % are present as S2O32–. In general higher blast-furnace slag content leads to higher concentrations of sulphite and thiosulphate after 7 d.
The thesis investigates at the computer aided simulation process for operational vibration analysis of complex coupled systems. As part of the internal methods project “Absolute Values” of the BMW Group, the thesis deals with the analysis of the structural dynamic interactions and excitation interactions. The overarching aim of the methods project is to predict the operational vibrations of engines.
Simulations are usually used to analyze technical aspects (e. g. operational vibrations, strength, ...) of single components in the industrial development. The boundary conditions of submodels are mostly based on experiences. So the interactions with neighboring components and systems are neglected. To get physically more realistic results but still efficient simulations, this work wants to support the engineer during the preprocessing phase by useful criteria.
At first suitable abstraction levels based on the existing literature are defined to identify structural dynamic interactions and excitation interactions of coupled systems. So it is possible to separate different effects of the coupled subsystems. On this basis, criteria are derived to assess the influence of interactions between the considered systems. These criteria can be used during the preprocessing phase and help the engineer to build up efficient models with respect to the interactions with neighboring systems. The method was developed by using several models with different complexity levels. Furthermore, the method is proved for the application in the industrial environment by using the example of a current combustion engine.
Der Einsatz ungeeigneter Materialien ist eine der häufigsten Ursachen für Bauwerksschäden. Da die Beseitigung dieser Schäden oft mit hohen Kosten verbunden ist, besteht in der Baupraxis der Bedarf an einer Identifizierungsmethode für eingesetzte Baustoffe. Daneben wäre eine Kenntnis der in einem Bauwerk vorliegenden Materialien auch für Instandhaltungsarbeiten hilfreich.
Die Identifizierung der in einem Festbeton oder Festmörtel vorliegenden Zementart gilt auch gegenwärtig noch als schwierig oder sogar unmöglich. Die Schwierigkeiten ergeben sich in erste Linie daraus, dass die Hydratationsprodukte verschiedener Zementarten oft nur geringe Unterschiede in ihrer chemischen und mineralogischen Zusammensetzung aufweisen und die Hydratationsmechanismen bei einigen Zementarten noch nicht vollständig erforscht sind.
Primäres Ziel der vorliegenden Arbeit war es zu untersuchen, ob anhand des Mineralphasenbestandes, der sich während einer thermischen Behandlung von Zementsteinen einstellt, eine Identifizierung der vorliegenden Zementart möglich ist. Weiterhin sollte die Übertragbarkeit dieser Ergebnisse auf Betone und Mörtel eingeschätzt werden.
Zur Schaffung von Identifizierungsmerkmalen wurden die (angereicherten) Zementsteine bei Temperaturen im Bereich zwischen 600 °C und 1400 °C thermisch behandelt. An den getemperten Proben wurde der Mineralphasenbestand mittels Röntgendiffraktometrie bestimmt. Mit der gleichen Methode wurden die Ausgangszemente und die (angereicherten) Zementsteine untersucht. Aus der Gegenüberstellung der nachgewiesenen Mineralphasen konnten die gesuchten Identifizierungsmerkmale abgeleitet werden. Um den Einfluss der Gesteinskörnungen auf die Identifizierungsmöglichkeiten gesondert zu erfassen, wurde das Versuchsprogramm auf 3 Abstraktionsebenen angelegt. Für die Auswertung der Ergebnisse wurden die Proben zu Klassen zusammengefasst, welche jeweils charakteristische Zusammensetzungen der Ausgangszemente repräsentieren. Für die Analyseergebnisse wurden die klassenspezifischen die Mittel- und Grenzwerte bestimmt.
Als die effektivste Methode zur Anreicherung der Zementsteinmatrix aus Mörtel- und Betonproben erwies sich die Kombination aus einer Zerkleinerung in einem Laborbackenbrecher. Die fein partikulären Fraktionen, welche Zementsteingehalte von 70-80 Ma.-% aufwiesen, wurden als Analyseproben verwendet. Es zeigte sich aber auch, dass das Anreicherungsergebnis von der Gesteinskörnungsart abhängt. Bei Laborbetonen mit einer Kalkstein-Gesteinskörnung wurde mit der gleichen Methode lediglich eine Anreicherung des Zementsteins auf etwa 50 Ma.-% erreicht.
Die Untersuchungen auf Abstraktionsebene 1 lieferten die Erkenntnis, dass der Hydratationsprozess der Klinkerphasen, der Klinkerphasengemische sowie des Hüttensandes, auch in Gegenwart des Sulfatträgers für Behandlungstemperaturen im Bereich des Klinkerbrandes vollständig reversibel ist. Im Hinblick auf die Identifizierungsmöglichkeiten wurde 1100 °C als optimale Behandlungstemperatur ermittelt, da hier eine Schmelzphasenbildung ausgeschlossen werden kann.
Durch eine Gegenüberstellung der chemischen Zusammensetzung der Ausgangszemente und des Phasenbestandes nach der Temperung konnte nachgewiesen werden, dass bei reinen Zementsteinen grundsätzlich alle Bestandteile an der Reaktion, die während der thermischen Behandlung bei 1100 °C stattfindet, beteiligt sind. Der sich einstellende Phasen bestand ist nur von der chemischen Zusammensetzung der Probe und dabei besonders von derem CaO-Gehalt abhängig. Empirisch wurde eine Prioritätenfolge für die Phasenbildung ermittelt. Daraus geht hervor, dass bevorzugt CaO-reiche Phasen, wie Aluminatferritphase, Belit und Ye‘elimit entstehen und dass überschüssiger Kalk als freies CaO vorliegt. Nur wenn der CaO-Gehalt der Probe nicht für die vollständige Bildung der – in der Summe – kalkreichsten Phasen ausreicht, entstehen partiell oder vollständig kalkärmere Phasen, wie Merwinit und Melilith. Basierend auf den Prioritäten zur Phasenbildung wurde ein Satz von Berechnungsgleichungen aufgestellt, mit denen der CaO-Typ aus der Phasenzusammensetzung der bei 1100 °C getemperten Probe bestimmt werden kann. CaO-Typen repräsentieren Bereiche für die chemische Zusammensetzung der Ausgangsprobe, welche bei der Temperaturbehandlung zu einer charakteristischen qualitativen Phasenzusammensetzung führen. Die CaO-Typen der marktüblichen Zementarten wurden anhand der in der Norm EN 197 festgelegten Bereiche für die Zusammensetzung der Zemente aus ihren Hauptbestandteilen sowie der aus der Fachliteratur ermittelten Bereiche für die chemische Zusammensetzung dieser Hauptbestandteile ermittelt. Damit kann für die Zementarten der Phasenbestand vorhergesagt werden, welcher sich während der Temperaturbehandlung des entsprechenden Zementsteins einstellt. Ein Vergleich mit dem gemessenen Phasenbestand erlaubt so die Identifizierung der Zementart.
Die Übertragbarkeit der durch die Untersuchungen an den Zementsteinen gewonnenen Erkenntnisse und die daraus abgeleiteten Identifizierungsmöglichkeiten auf Zementsteine, welche aus quarzsandhaltigen Normmörteln angereichert wurden, konnte nachgewiesen werden. Dabei wurde eine leichte Verschiebung des Phasenbestandes hin zu kalkärmeren Phasen beobachtet, welche auf die Reaktionsbeteiligung eines Teils der in den Proben enthaltenen Restgesteinskörnung zurückzuführen ist. Die Unterscheidungsmöglichkeiten zwischen den Zementarten blieben jedoch überwiegend erhalten.
Bei Betonen nimmt der Einfluss der Gesteinskörnung auf den Phasenbestand deutlich zu und kann zum Teil nicht mehr vernachlässigt werden. Die Identifizierungsmöglichkeiten müssen deshalb nach der chemischen Zusammensetzung und der Reaktivität der Gesteinskörnung differenziert ermittelt werden. Dazu sind weitere Untersuchungen notwendig.
Für Zementsteine, zementsteinreiche Systeme sowie Mörtel und Betone mit wenig reaktiven Gesteinskörnungen kann die Zementart bereits mit der in dieser Arbeit vorgestellten Methode identifiziert werden. In Fällen, für die sich die Bereiche der chemischen Zusammensetzung mehrerer Zementarten überschneiden, kann es dabei notwendig sein, zusätzliche chemische bzw. mineralogische Untersuchungen durchzuführen, z. B. am unbehandelten Zementstein.
Modern immersive telepresence systems enable people at different locations to meet in virtual environments using realistic three-dimensional representations of their bodies. For the realization of such a three-dimensional version of a video conferencing system, each user is continuously recorded in 3D. These 3D recordings are exchanged over the network between remote sites. At each site, the remote recordings of the users, referred to as 3D video avatars, are seamlessly integrated into a shared virtual scenery and displayed in stereoscopic 3D for each user from his or her perspective.
This thesis reports on algorithmic and technical contributions to modern immersive telepresence systems and presents the design, implementation and evaluation of the first immersive group-to-group telepresence system in which each user is represented as realistic life-size 3D video avatar. The system enabled two remote user groups to meet and collaborate in a consistent shared virtual environment. The system relied on novel methods for the precise calibration and registration of color- and depth- sensors (RGBD) into the coordinate system of the application as well as an advanced distributed processing pipeline that reconstructs realistic 3D video avatars in real-time. During the course of this thesis, the calibration of 3D capturing systems was greatly improved. While the first development focused on precisely calibrating individual RGBD-sensors, the second stage presents a new method for calibrating and registering multiple color and depth sensors at a very high precision throughout a large 3D capturing volume. This method was further refined by a novel automatic optimization process that significantly speeds up the manual operation and yields similarly high accuracy. A core benefit of the new calibration method is its high runtime efficiency by directly mapping from raw depth sensor measurements into an application coordinate system and to the coordinates of its associated color sensor. As a result, the calibration method is an efficient solution in terms of precision and applicability in virtual reality and immersive telepresence applications. In addition to the core contributions, the results of two case studies which address 3D reconstruction and data streaming lead to the final conclusion of this thesis and to directions of future work in the rapidly advancing field of immersive telepresence research.
Due to the significant number of immigrants in Europe, especially Germany, integration is an ongoing subject of debate. Since the 1970s, with the emergence of the discussions on ‘place,’ it has also been realized that the immigrant experience is associated with location. Nevertheless, due to the challenges in capturing the place and migration relevance, there is a gap in understanding the role of the migrant’s geography of experiences and its outcomes (Phillips & Robinson, 2015).
This research aims to investigate the extent to which both the process of objective integration and the socio-spatial practices of high-skilled Iranian immigrants in Berlin outline and influence their sense of belonging to Berlin as the new “home.” The embedded mixed-method design had employed for this study. The quantitative analysis through Pearson’s correlation technique measured the strength of the association between Iranians’ settlement distribution and the characteristics of Berlins’ districts. The quantitative analysis provides contextual data to get a greater level of understanding of the case study’s interaction with place. The units of place intend to demonstrate the case study’s presence and possible interaction with places around their settlement location that relatively shapes their perception. The qualitative analysis comprises ethnographic fieldwork and semi-structured in-depth interviews with a homogeneous sample of Iranian immigrants in Berlin that provide data on individual and ethnic behaviors and trajectories and analyze the complex interactions between the immigrant’s experience and the role of place.
This research uncovers that Iranian highly skilled immigrants are successful in integrating objectively; However, in regards to their state of belonging, it illustrated the following: The role of socio-ethnic culture of the case study in denotation of home and belonging; Iranian high-skilled immigrants’ efforts towards reaching a level of upward mobility overshadow their attempt to shape social and spatial interaction with Berliners and Berlin itself, which manifests both in their perception and use of urban space; and finally, the identification practice and the boundary-making as an act of reassurance and self-protection against the generalization of adjacent nationalities, demonstrated in the intersection of demographical settlement distribution of Iranians in Berlin and the ethnic diversity, impact the sense of belonging and place-making.
Die Arbeit leistet einen wissenschaftlichen Beitrag zur Erforschung der Einsatzmöglichkeiten eines Immobilienportfoliomanagements für öffentliche museale Schlösserverwaltungen in Deutschland. Insbesondere wird ein für deren Organisation spezifisches Modell zur Investitionssteuerung herausgearbeitet und dessen Anwendbarkeit in der Praxis mit Experten diskutiert.
Although it is impractical to avert subsequent natural disasters, advances in simulation science and seismological studies make it possible to lessen the catastrophic damage. There currently exists in many urban areas a large number of structures, which are prone to damage by earthquakes. These were constructed without the guidance of a national seismic code, either before it existed or before it was enforced. For instance, in Istanbul, Turkey, as a high seismic area, around 90% of buildings are substandard, which can be generalized into other earthquakeprone regions in Turkey. The reliability of this building stock resulting from earthquake-induced collapse is currently uncertain. Nonetheless, it is also not feasible to perform a detailed seismic vulnerability analysis on each building as a solution to the scenario, as it will be too complicated and expensive. This indicates the necessity of a reliable, rapid, and computationally easy method for seismic vulnerability assessment, commonly known as Rapid Visual Screening (RVS). In RVS methodology, an observational survey of buildings is performed, and according to the data collected during the visual inspection, a structural score is calculated without performing any structural calculations to determine the expected damage of a building and whether the building needs detailed assessment. Although this method might save time and resources due to the subjective/qualitative judgments of experts who performed the inspection, the evaluation process is dominated by vagueness and uncertainties, where the vagueness can be handled adequately through the fuzzy set theory but do not cover all sort of uncertainties due to its crisp membership functions. In this study, a novel method of rapid visual hazard safety assessment of buildings against earthquake is introduced in which an interval type-2 fuzzy logic system (IT2FLS) is used to cover uncertainties. In addition, the proposed method provides the possibility to evaluate the earthquake risk of the building by considering factors related to the building importance and exposure. A smartphone app prototype of the method has been introduced. For validation of the proposed method, two case studies have been selected, and the result of the analysis presents the robust efficiency of the proposed method.
Exploratory Research into Transformation Processes of Former Industrial Complexes of Leipziger Baumwollspinnerei (Leipzig) and Mattatoio di Testaccio (Rome); New Meanings of Industrial Heritage
Physical manifestations of the Industrial Revolution left a permanent imprint on the complexion of cities. Abandonment that followed the deindustrialization contributed to an estrangement, turning derelict industrial spaces and run‐down factories into a ballast to conjure with. At present, industrial heritage management applies flexibility and creativity, partially overcoming the essentially traditional paradigm of heritage preservation. This approach permits sustainable conservation – utilization and integration of disused industrial constructs in the contemporary urban landscape. Being a part of the European cultural stock, industrial heritage is an exciting and unique setting from many perspectives. It is defined and consumed by many markets, ranging from the industrial heritage tourism to the market of special events and festivals. Reused industrial buildings and factories come into view as products of post‐industrial societies, fitting to the Western post‐industrial (consumer) culture, offering a field of activities that are at an interface between the industrial history and contemporary socio‐cultural milieu.
Alteration of values, growth of new roles and definitions of industrial heritage, generated by functional restructuring, is a subject which is often left behind the general discussion about sustainable conservation and adaptive reuse of industrial heritage. Yet, in the modified state, industrial heritage is very complex to understand and to define.
By conducting a desk and a case study research of former industrial complexes – Leipziger Baumwollspinnerei and Mattatoio di Testaccio, this doctoral thesis aims to identify industrial heritage as a contemporary (post‐industrial) concept. Observation of ideas, values and definitions that emerge as a consequence of the transformation and re‐conceptualization of industrial heritage are intended to raise awareness and appreciation of industrial heritage in the full richness of its contemporary interpretation.
In ten chapters, this thesis presents information retrieval technology which is tailored to the research activities that arise in the context of corpus-based digital humanities projects.
The presentation is structured by a conceptual research process that is introduced in Chapter 1. The process distinguishes a set of five research activities: research question generation, corpus acquisition, research question modeling, corpus annotation, and result dissemination. Each of these research activities elicits different information retrieval tasks with special challenges, for which algorithmic approaches are presented after an introduction of the core information retrieval concepts in Chapter 2.
A vital concept in many of the presented approaches is the keyquery paradigm introduced in Chapter 3, which represents an operation that returns relevant search queries in response to a given set of input documents. Keyqueries are proposed in Chapter 4 for the recommendation of related work, and in Chapter 5 for improving access to aspects hidden in the long tail of search result lists.
With pseudo-descriptions, a document expansion approach is presented in Chapter 6. The approach improves the retrieval performance for corpora where only bibliographic meta-data is originally available. In Chapter 7, the keyquery paradigm is employed to generate dynamic taxonomies for corpora in an unsupervised fashion.
Chapter 8 turns to the exploration of annotated corpora, and presents scoped facets as a conceptual extension to faceted search systems, which is particularly useful in exploratory search settings. For the purpose of highlighting the major topical differences in a sequence of sub-corpora, an algorithm called topical sequence profiling is presented in Chapter 9.
The thesis concludes with two pilot studies regarding the visualization of (re)search results for the means of successful result dissemination: a metaphoric interpretation of the information nutrition label, as well as the philosophical bodies, which are 3D-printed search results.
The intention of this thesis is to analyse the performance of the theory and the practice of the integrated development planning by Cape Town’s local government in two Townships named Nyanga and Philippi between 1999 and 2001. Since then the local government aimed to supply a planning approach that is of an integrative nature, opposed to the disintegrative one during Apartheid before 1994. South Africa’s primary instrument for development is named the Integrated Development Plan (IDP). This instrument is primarily responsible for socioeconomic development but significantly affects and considers spatial planning aspects as well. Between 1999 and 2001 the five selected project cases along the Ingulube Drive in Nyanga and Philippi under the umbrella of the Dignified Places rogramme have been implemented. The study analysis aims to investigate a specific momentum in time, where spatial practice in South Africa began to experience a new, integrative approach. Furthermore, the study is embedded in the planning conventions in Cape Town’s black Townships before, during and after Apartheid. ...
The gradual digitization in the architecture, engineering, and construction industry over the past fifty years led to an extremely heterogeneous software environment, which today is embodied by the multitude of different digital tools and proprietary data formats used by the many specialists contributing to the design process in a construction project. Though these projects become increasingly complex, the demands on financial efficiency and the completion within a tight schedule grow at the same time. The digital collaboration of project partners has been identified as one key issue in successfully dealing with these challenges. Yet currently, the numerous software applications and their respective individual views on the design process severely impede that collaboration.
An approach to establish a unified basis for the digital collaboration, regardless of the existing software heterogeneity, is a comprehensive digital building model contributed to by all projects partners. This type of data management known as building information modeling (BIM) has many benefits, yet its adoption is associated with many difficulties and thus, proceeds only slowly. One aspect in the field of conflicting requirements on such a digital model is the cooperation of architects and structural engineers. Traditionally, these two disciplines use different abstractions of reality for their models that in consequence lead to incompatible digital representations thereof.
The onset of isogeometric analysis (IGA) promised to ease the discrepancy in design and analysis model representations. Yet, that initial focus quickly shifted towards using these methods as a more powerful basis for numerical simulations. Furthermore, the isogeometric representation alone is not capable of solving the model abstraction problem. It is thus the intention of this work to contribute to an improved digital collaboration of architects and engineers by exploring an integrated analysis approach on the basis of an unified digital model and solid geometry expressed by splines. In the course of this work, an analysis framework is developed that utilizes such models to automatically conduct numerical simulations commonly required in construction projects. In essence, this allows to retrieve structural analysis results from BIM models in a fast and simple manner, thereby facilitating rapid design iterations and profound design feedback.
The BIM implementation Industry Foundation Classes (IFC) is reviewed with regard to its capabilities of representing the unified model. The current IFC schema strongly supports the use of redundant model data, a major pitfall in digital collaboration. Additionally, it does not allow to describe the geometry by volumetric splines. As the pursued approach builds upon a unique model for both, architectural and structural design, and furthermore requires solid geometry, necessary schema modifications are suggested.
Structural entities are modeled by volumetric NURBS patches, each of which constitutes an individual subdomain that, with regard to the analysis, is incompatible with the remaining full model. The resulting consequences for numerical simulation are elaborated in this work. The individual subdomains have to be weakly coupled, for which the mortar method is used. Different approaches to discretize the interface traction fields are implemented and their respective impact on the analysis results is evaluated. All necessary coupling conditions are automatically derived from the related geometry model.
The weak coupling procedure leads to a linear system of equations in saddle point form, which, owed to the volumetric modeling, is large in size and, the associated coefficient matrix has, due to the use of higher degree basis functions, a high bandwidth. The peculiarities of the system require adapted solution methods that generally cause higher numerical costs than the standard procedures for symmetric, positive-definite systems do. Different methods to solve the specific system are investigated and an efficient parallel algorithm is finally proposed.
When the structural analysis model is derived from the unified model in the BIM data, it does in general initially not meet the requirements on the discretization that are necessary to obtain sufficiently accurate analysis results. The consequently necessary patch refinements must be controlled automatically to allowfor an entirely automatic analysis procedure. For that purpose, an empirical refinement scheme based on the geometrical and possibly mechanical properties of the specific entities is proposed. The level of refinement may be selectively manipulated by the structural engineer in charge. Furthermore, a Zienkiewicz-Zhu type error estimator is adapted for the use with isogeometric analysis results. It is shown that also this estimator can be used to steer an adaptive refinement procedure.
This dissertation presents three studies on the design and implementation of interactive surface environments. It puts forward approaches to engineering interactive surface prototypes using prevailing methodologies and technologies. The scholarly findings from each study have been condensed into academic manuscripts, which are conferred herewith.
The first study identifies a communication gap between engineers of interactive surface systems (i.e., originators of concepts) and future developers. To bridge the gap, it explores a UML-based framework to establish a formal syntax for modeling hardware, middleware, and software of interactive surface prototypes. The proposed framework targets models-as-end-products, towards enabling a shared view of research prototypes thereby facilitating dialogue between concept originators and future developers.
The second study positions itself to support developers with an open-source solution for exploiting 3D point clouds for interactive tabletop applications using CPU architectures. Given dense 3D point-cloud representations of tabletop environments, the study aims toward mitigating high computational effort by segmenting candidate interaction regions as a preprocessing step. The study contributes a robust open-source solution for reducing computational costs when leveraging 3D point clouds for interactive tabletop applications. The solution itself is flexible and adaptable to variable interactive surface applications.
The third study contributes an archetypal concept for integrating mobile devices as active components in augmented tabletop surfaces. With emphasis on transparent development trails, the study demonstrates the utility of the open-source tool developed in the second study. In addition to leveraging 3D point clouds for real-time interaction, the research considers recent advances in computer vision and wireless communication to realize a modern, interactive tabletop application. A robust strategy that combines spatial augmented reality, point-cloud-based depth perception, CNN-based object detection, and Bluetooth communication is put forward. In addition to seamless communication between adhoc mobile devices and interactive tabletop systems, the archetypal concept demonstrates the benefits of preprocessing point clouds by segmenting candidate interaction regions, as suggested in the second study.
Collectively, the studies presented in this dissertation contribute; 1—bridging the gap between originators of interactive surface concepts and future developers, 2— promoting the exploration of 3D point clouds for interactive surface applications using CPU-based architectures, and 3—leveraging 3D point clouds together with emerging CNN-based object detection, and Bluetooth communication technologies to advance existing surface interaction concepts.
Den Gegenstand der Dissertation bilden die Konzeption und die exemplarische Realisierung eines verknüpfungsbasierten Bauwerksmodellierungsansatzes zur Schaffung einer integrierenden Arbeits- und Planungsumgebung für den Lebenszyklus von Bauwerken. Die Basis der Integration bildet ein deklarativ ausgerichteter Bauwerksmodellverbund bestehend aus abstrahierten, domänenspezifischen Partialmodellen. Auf Grund der de facto existierenden Dynamik im Bauwerkslebenszyklus werden sowohl der Bauwerksmodellverbund als auch die einzelnen Partialmodelle dynamisch modifizierbar konzipiert und auf Basis spezieller Modellverwaltungssysteme technisch realisiert. Die Verständigung innerhalb der vorgeschlagenen Gesamtbauwerksmodellarchitektur basiert auf anwenderspezifisch zu erstellenden Verknüpfungen zwischen den Partialmodellen und wird im Sinne einer hybriden Modellarchitektur durch eine zentrale, die Verknüpfungen verwaltende Komponente koordiniert. Zur Verwaltung und Abarbeitung der Verknüpfungen wird der Einsatz von Softwareagenten im Rahmen eines Multiagentensystems vorgeschlagen und diskutiert.
Piezoelectric materials are used in several applications as sensors and actuators where they experience high stress and electric field concentrations as a result of which they may fail due to fracture. Though there are many analytical and experimental works on piezoelectric fracture mechanics. There are very few studies about damage detection, which is an interesting way to prevent the failure of these ceramics.
An iterative method to treat the inverse problem of detecting cracks and voids in piezoelectric structures is proposed. Extended finite element method (XFEM) is employed for solving the inverse problem as it allows the use of a single regular mesh for large number of iterations with different flaw geometries.
Firstly, minimization of cost function is performed by Multilevel Coordinate Search (MCS) method. The XFEM-MCS methodology is applied to two dimensional electromechanical problems where flaws considered are straight cracks and elliptical voids. Then a numerical method based on combination of classical shape derivative and level set method for front propagation used in structural optimization is utilized to minimize the cost function. The results obtained show that the XFEM-level set methodology is effectively able to determine the number of voids in a piezoelectric structure and its corresponding locations.
The XFEM-level set methodology is improved to solve the inverse problem of detecting inclusion interfaces in a piezoelectric structure. The material interfaces are implicitly represented by level sets which are identified by applying regularisation using total variation penalty terms. The formulation is presented for three dimensional structures and inclusions made of different materials are detected by using multiple level sets. The results obtained prove that the iterative procedure proposed can determine the location and approximate shape of material subdomains in the presence of higher noise levels.
Piezoelectric nanostructures exhibit size dependent properties because of surface elasticity and surface piezoelectricity. Initially a study to understand the influence of surface elasticity on optimization of nano elastic beams is performed. The boundary of the nano structure is implicitly represented by a level set function, which is considered as the design variable in the optimization process. Two objective functions, minimizing the total potential energy of a nanostructure subjected to a material volume constraint and minimizing the least square error compared to a target
displacement, are chosen for the numerical examples. The numerical examples demonstrate the importance of size and aspect ratio in determining how surface effects impact the optimized topology of nanobeams.
Finally a conventional cantilever energy harvester with a piezoelectric nano layer is analysed. The presence of surface piezoelectricity in nano beams and nano plates leads to increase in electromechanical coupling coefficient. Topology optimization of these piezoelectric structures in an energy harvesting device to further increase energy conversion using appropriately modified XFEM-level set algorithm is performed .
The refurbishment of old buildings often goes hand in hand with an increase in both the dead and live loads. The latter, combined with the higher safety factors, often make the reinforcement of the old structures necessary. Most reinforcement methods involve transforming a structural timber member into a composite beam. Composite sections have a long tradition in timber construction. In the early days, multiple timber beams were connected with interlocking tooth and wooden shear connecters, which resulted in an elastic connection. Although historical timber structures are frequently upgraded, no method has yet been established and fully accepted by all stakeholders such as owners, builders, architects, engineers and cultural heritage organisations. Carbon fibre-reinforced polymers (CFRP) have already shown their efficiency in structural reinforcement especially in concrete structures. Moreover, previous studies have shown that CFRP has the potential to meet the expectations of all parties involved.
In order to reach the service-limit state, a high amount of carbon fibres has to be used, or considering the cost of reinforcement, prestress has to be applied. However, prestressing often goes hand-in-hand with delaminating issues. The camber method presented here offers an efficient solution for prestressing timber bending members and overcoming the known obstacles.
In the method proposed, the timber beam is cambered using an adjustable prop at midspan during the bonding of the CRFP-lamella to the lower side of the bending member. After curing the adhesive, the prop is removed and the prestressed composite beam is ready to be used. The prestress introduced in the system is not constant, but has a triangular shape and peaks at midspan, where it is used the most. The prestress force, which declines towards the end of the beam, leads to a constant shear stress over the whole length of the reinforcement,avoiding a concentrated anchorage zone.
An analytical calculation model has been developed to calculate and design prestressed timber-
bending members using the camber method. Numerical modelling, using a multi-surface plasticity model for timber, confirmed the results from the analytical model, and clearly reduced delaminating issues, comparing very favourably to traditional prestressing methods. The experimental parametric study, including the determination of the short-term loadbearing capacity of structural-sized beams, showed agreement with the analytical and numerical calculation. The prestressed reinforcement showed a benefit of nearly 50% towards the ultimate-limit state and up to 70% towards the service-limit state. Calculations revealed that the use of high modulus CFRP allows even higher benefits, depending on the configurations and requirements. The long-term design of the prestressed composite beam was investigated by extending the analytical model. The creep of the timber leads to a load transfer from the timber towards the CFRP, and therefore increases the benefit towards the ultimatelimit design. Applying high modulus CFRP-lamellas allows for a complete utilisation of the
design capacity of timber and carbon fibre-reinforced polymer.
The thorough investigation conducted demonstrated that the camber method is an efficient technique for prestressing and reinforcing timber-bending members. Furthermore, the calculation model presented allows for a safe design and estimation of long-term behaviour.
This thesis addresses an adaptive higher-order method based on a Geometry Independent Field approximatTion(GIFT) of polynomial/rationals plines over hierarchical T-meshes(PHT/RHT-splines).
In isogeometric analysis, basis functions used for constructing geometric models in computer-aided design(CAD) are also employed to discretize the partial differential equations(PDEs) for numerical analysis. Non-uniform rational B-Splines(NURBS) are the most commonly used basis functions in CAD. However, they may not be ideal for numerical analysis where local refinement is required.
The alternative method GIFT deploys different splines for geometry and numerical analysis. NURBS are utilized for the geometry representation, while for the field solution, PHT/RHT-splines are used. PHT-splines not only inherit the useful properties of B-splines and NURBS, but also possess the capabilities of local refinement and hierarchical structure. The smooth basis function properties of PHT-splines make them suitable for analysis purposes. While most problems considered in isogeometric analysis can be solved efficiently when the solution is smooth, many non-trivial problems have rough solutions. For example, this can be caused by the presence of re-entrant corners in the domain. For such problems, a tensor-product basis (as in the case of NURBS) is less suitable for resolving the singularities that appear since refinement propagates throughout the computational domain. Hierarchical bases and local refinement (as in the case of PHT-splines) allow for a more efficient way to resolve these singularities by adding more degrees of freedom where they are necessary. In order to drive the adaptive refinement, an efficient recovery-based error estimator is proposed in this thesis. The estimator produces a recovery solution which is a more accurate approximation than the computed numerical solution. Several two- and three-dimensional numerical investigations with PHT-splines of higher order and continuity prove that the proposed method is capable of obtaining results with higher accuracy, better convergence, fewer degrees of freedom and less computational cost than NURBS for smooth solution problems. The adaptive GIFT method utilizing PHT-splines with the recovery-based error estimator is used for solutions with discontinuities or singularities where adaptive local refinement in particular domains of interest achieves higher accuracy with fewer degrees of freedom. This method also proves that it can handle complicated multi-patch domains for two- and three-dimensional problems outperforming uniform refinement in terms of degrees of freedom and computational cost.
This thesis presents two new methods in finite elements and isogeometric analysis for structural analysis. The first method proposes an alternative alpha finite element method using triangular elements. In this method, the piecewise constant strain field of linear triangular finite element method models is enhanced by additional strain terms with an adjustable parameter a, which results in an effectively softer stiffness formulation compared to a linear triangular element. In order to avoid the transverse shear locking of Reissner-Mindlin plates analysis the alpha finite element method is coupled with a discrete shear gap technique for triangular elements to significantly improve the accuracy of the standard triangular finite elements.
The basic idea behind this element formulation is to approximate displacements and rotations as in the standard finite element method, but to construct the bending, geometrical and shear strains using node-based smoothing domains. Several numerical examples are presented and show that the alpha FEM gives a good agreement compared to several other methods in the literature.
Second method, isogeometric analysis based on rational splines over hierarchical T-meshes (RHT-splines) is proposed. The RHT-splines are a generalization of Non-Uniform Rational B-splines (NURBS) over hierarchical T-meshes, which is a piecewise bicubic polynomial over a hierarchical
T-mesh. The RHT-splines basis functions not only inherit all the properties of NURBS such as non-negativity, local support and partition of unity but also more importantly as the capability of joining geometric objects without gaps, preserving higher order continuity everywhere and allow local refinement and adaptivity. In order to drive the adaptive refinement, an efficient recovery-based error estimator is employed. For this problem an imaginary surface is defined. The imaginary surface is basically constructed by RHT-splines basis functions which is used for approximation and interpolation functions as well as the construction of the recovered stress components. Numerical investigations prove that the proposed method is capable to obtain results with higher accuracy and convergence rate than NURBS results.
The Finite Element Method (FEM) is widely used in engineering for solving Partial Differential Equations (PDEs) over complex geometries. To this end, it is required to provide the FEM software with a geometric model that is typically constructed in a Computer-Aided Design (CAD) software. However, FEM and CAD use different approaches for the mathematical description of the geometry. Thus, it is required to generate a mesh, which is suitable for FEM, based on the CAD model. Nonetheless, this procedure is not a trivial task and it can be time consuming. This issue becomes more significant for solving shape and topology optimization problems, which consist in evolving the geometry iteratively. Therefore, the computational cost associated to the mesh generation process is increased exponentially for this type of applications.
The main goal of this work is to investigate the integration of CAD and CAE in shape and topology optimization. To this end, numerical tools that close the gap between design and analysis are presented. The specific objectives of this work are listed below:
• Automatize the sensitivity analysis in an isogeometric framework for applications in shape optimization. Applications for linear elasticity are considered.
• A methodology is developed for providing a direct link between the CAD model and the analysis mesh. In consequence, the sensitivity analysis can be performed in terms of the design variables located in the design model.
• The last objective is to develop an isogeometric method for shape and topological optimization. This method should take advantage of using Non-Uniform Rational B-Splines (NURBS) with higher continuity as basis functions.
Isogeometric Analysis (IGA) is a framework designed to integrate the design and analysis in engineering problems. The fundamental idea of IGA is to use the same basis functions for modeling the geometry, usually NURBS, for the approximation of the solution fields. The advantage of integrating design and analysis is two-fold. First, the analysis stage is more accurate since the system of PDEs is not solved using an approximated geometry, but the exact CAD model. Moreover, providing a direct link between the design and analysis discretizations makes possible the implementation of efficient sensitivity analysis methods. Second, the computational time is significantly reduced because the mesh generation process can be avoided.
Sensitivity analysis is essential for solving optimization problems when gradient-based optimization algorithms are employed. Automatic differentiation can compute exact gradients, automatically by tracking the algebraic operations performed on the design variables. For the automation of the sensitivity analysis, an isogeometric framework is used. Here, the analysis mesh is obtained after carrying out successive refinements, while retaining the coarse geometry for the domain design. An automatic differentiation (AD) toolbox is used to perform the sensitivity analysis. The AD toolbox takes the code for computing the objective and constraint functions as input. Then, using a source code transformation approach, it outputs a code for computing the objective and constraint functions, and their sensitivities as well. The sensitivities obtained from the sensitivity propagation method are compared with analytical sensitivities, which are computed using a full isogeometric approach.
The computational efficiency of AD is comparable to that of analytical sensitivities. However, the memory requirements are larger for AD. Therefore, AD is preferable if the memory requirements are satisfied. Automatic sensitivity analysis demonstrates its practicality since it simplifies the work of engineers and designers.
Complex geometries with sharp edges and/or holes cannot easily be described with NURBS. One solution is the use of unstructured meshes. Simplex-elements (triangles and tetrahedra for two and three dimensions respectively) are particularly useful since they can automatically parameterize a wide variety of domains. In this regard, unstructured Bézier elements, commonly used in CAD, can be employed for the exact modelling of CAD boundary representations. In two dimensions, the domain enclosed by NURBS curves is parameterized with Bézier triangles. To describe exactly the boundary of a two-dimensional CAD model, the continuity of a NURBS boundary representation is reduced to C^0. Then, the control points are used to generate a triangulation such that the boundary of the domain is identical to the initial CAD boundary representation. Thus, a direct link between the design and analysis discretizations is provided and the sensitivities can be propagated to the design domain.
In three dimensions, the initial CAD boundary representation is given as a collection of NURBS surfaces that enclose a volume. Using a mesh generator (Gmsh), a tetrahedral mesh is obtained. The original surface is reconstructed by modifying the location of the control points of the tetrahedral mesh using Bézier tetrahedral elements and a point inversion algorithm. This method offers the possibility of computing the sensitivity analysis using the analysis mesh. Then, the sensitivities can be propagated into the design discretization. To reuse the mesh originally generated, a moving Bézier tetrahedral mesh approach was implemented.
A gradient-based optimization algorithm is employed together with a sensitivity propagation procedure for the shape optimization cases. The proposed shape optimization approaches are used to solve some standard benchmark problems in structural mechanics. The results obtained show that the proposed approach can compute accurate gradients and evolve the geometry towards optimal solutions. In three dimensions, the moving mesh approach results in faster convergence in terms of computational time and avoids remeshing at each optimization step.
For considering topological changes in a CAD-based framework, an isogeometric phase-field based shape and topology optimization is developed. In this case, the diffuse interface of a phase-field variable over a design domain implicitly describes the boundaries of the geometry. The design variables are the local values of the phase-field variable. The descent direction to minimize the objective function is found by using the sensitivities of the objective function with respect to the design variables. The evolution of the phase-field is determined by solving the time dependent Allen-Cahn equation.
Especially for topology optimization problems that require C^1 continuity, such as for flexoelectric structures, the isogeometric phase field method is of great advantage. NURBS can achieve the desired continuity more efficiently than the traditional employed functions. The robustness of the method is demonstrated when applied to different geometries, boundary conditions, and material configurations. The applications illustrate that compared to piezoelectricity, the electrical performance of flexoelectric microbeams is larger under bending. In contrast, the electrical power for a structure under compression becomes larger with piezoelectricity.
In this thesis, a new approach is developed for applications of shape optimization on the time harmonic wave propagation (Helmholtz equation) for acoustic problems. This approach is introduced for different dimensional problems: 2D, 3D axi-symmetric and fully 3D problems. The boundary element method (BEM) is coupled with the isogeometric analysis (IGA) forming the so-called (IGABEM) which speeds up meshing and gives higher accuracy in comparison with standard BEM. BEM is superior for handling unbounded domains by modeling only the inner boundaries and avoiding the truncation error, present in the finite element method (FEM) since BEM solutions satisfy the Sommerfeld radiation condition automatically. Moreover, BEM reduces the space dimension by one from a volumetric three-dimensional problem to a surface two-dimensional problem, or from a surface two-dimensional problem to a perimeter one-dimensional problem. Non-uniform rational B-splines basis functions (NURBS) are used in an isogeometric setting to describe both the CAD geometries and the physical fields.
IGABEM is coupled with one of the gradient-free optimization methods, the Particle Swarm Optimization (PSO) for structural shape optimization problems. PSO is a straightforward method since it does not require any sensitivity analysis but it has some trade-offs with regard to the computational cost. Coupling IGA with optimization problems enables the NURBS basis functions to represent the three models: shape design, analysis and optimization models, by a definition of a set of control points to be the control variables and the optimization parameters as well which enables an easy transition between the three models.
Acoustic shape optimization for various frequencies in different mediums is performed with PSO and the results are compared with the benchmark solutions from the literature for different dimensional problems proving the efficiency of the proposed approach with the following remarks:
- In 2D problems, two BEM methods are used: the conventional isogeometric boundary element method (IGABEM) and the eXtended IGABEM (XIBEM) enriched with the partition-of-unity expansion using a set of plane waves, where the results are generally in good agreement with the linterature with some computation advantage to XIBEM which allows coarser meshes.
-In 3D axi-symmetric problems, the three-dimensional problem is simplified in BEM from a surface integral to a combination of two 1D integrals. The first is the line integral similar to a two-dimensional BEM problem. The second integral is performed over the angle of revolution. The discretization is applied only to the former integration. This leads to significant computational savings and, consequently, better treatment for higher frequencies over the full three-dimensional models.
- In fully 3D problems, a detailed comparison between two BEM methods: the conventional boundary integral equation (CBIE) and Burton-Miller (BM) is provided including the computational cost. The proposed models are enhanced with a modified collocation scheme with offsets to Greville abscissae to avoid placing collocation points at the corners. Placing collocation points on smooth surface enables accurate evaluation of normals for BM formulation in addition to straightforward prediction of jump-terms and avoids singularities in $\mathcal{O} (1/r)$ integrals eliminating the need for polar integration. Furthermore, no additional special treatment is required for the hyper-singular integral while collocating on highly distorted elements, such as those containing sphere poles. The obtained results indicate that, CBIE with PSO is a feasible alternative (except for a small number of fictitious frequencies) which is easier to implement. Furthermore, BM presents an outstanding treatment of the complicated geometry of mufflers with internal extended inlet/outlet tube as an interior 3D Helmholtz acoustic problem instead of using mixed or dual BEM.
Die Vorstellung des Gesamtwerkes der halleschen Architekten Julius Kallmeyer und Wilhelm Facilides, die sich Anfang der 1920er Jahre zu einer Zusammenarbeit entschlossen und eine Vielzahl interessanter Gebäude für die Saalestadt schufen, ist in der Fokussierung der Gesamtthematik der Lebens- und Werksdarstellung das Grundanliegen dieser Ausarbeitung. Dieses bisher nicht in Angriff genommene architekturgeschichtliche Anliegen beschäftigt sich mit den Ergebnissen der Bürogeschichte einer- und der Lebensgeschichte der Persönlichkeiten andererseits. Bis heute gelten die klassisch modernen Architekturen Kallmeyers & Facilides ́, gerade für den gehobenen Wohnhausbau in Halle an der Saale, als herausragende Leistungen.
Kampf gegen die Sonne
(2013)
Kampf gegen die Sonne,
Extrakt (Abdulbari Madi genannt Hakim Madi):
Wenn wir unsere Vergangenheit betrachten, schauen wir auch in das Gesicht unserer Gegenwart und Zukunft. Wir müssen danach streben, unser kulturelles Erbe und unsere traditionellen Wurzeln zu bewahren, um gleichzeitig von den Erfahrungen der Vergangenheit in den verschiedenen Bereichen des Lebens zu profitieren und sie mit unserer heutigen Umwelt und Kultur in Einklang zu bringen. Die von der UNESCO geschützte alte Stadt Ghadames mitten in der Wüste von Libyen ist ein solcher Ort, an dem mehr als 2.000 Jahre Geschichte spürbar zu greifen sind.
Die Arbeit beschäftige sich zum einen mit dem baulichen Erbe der Stadt Ghadames als kulturelle Errungenschaft im Wandel aktueller Besiedlungsformen unter besonderer Berücksichtigung des Phänomens „Licht und Schatten“. Die einzigartigen Licht- und Schatten-Effekte in Ghadames sind aber, verbunden mit einem Seitenblick auf die theoretischen Beschäftigung damit, Anlass für eine praktische künstlerische Auseinandersetzung mit diesem Aspekt auf photographischer Ebene. So ist als fester Bestandteil dieser Arbeit eine Fotoserie entstanden.
Titel der Arbeit ist „Kampf gegen die Sonne“. Er hat seine Berechtigung, denn der Sonne sind die Bewohner der Wüstenstadt Ghadames schon seit jeher ausgesetzt und haben daher verschiedene Strategien entwickelt, sich vor der sengenden Sonne zu schützen. Das spiegelt sich vor allem in der Architektur, aber auch in der speziellen Palmenbepflanzung.
Gebauter Schatten – ans Klima angepasste Architektur
Architektur sollte idealerweise mit den Bedingungen ihres Umfelds in Einklang stehen. Die arabische Welt ist besonders von ihren klimatischen Bedingungen und der Weite der Wüste geprägt, wobei die Sonneneinstrahlung eine wichtige Rolle spielt. Diese Naturelemente bestimmen die arabische Architektur tiefgreifend.
Architektur, die wie in Ghadames über viele Jahrhunderte als Reaktion auf ein heißes, trockenes Klima entstanden ist, ist gerade heute in Zeiten des sich bereits vollziehenden Klimawandels von besonderem Interesse. Auch in den gemäßigten Klimazonen Europas wird die Sonneneinstrahlung kontinuierlich intensiver und damit wird die Nachfrage nach einer den neuen klimatischen Bedingungen angepassten Bauweise zukünftig zunehmen. An dieser Stelle kann man sicher von den architektonischen Errungenschaften und der langen Erfahrung mit Architektur als gebauter Schatten, wie sie in der Altstadt von Ghadames praktiziert wird, profitieren. Gerade im Vergleich mit der Neustadt von Ghadames, bei der man eben nicht traditionelle Bauweisen und Materialien der Wüstenstadt berücksichtigt hat, sondern eine standardisierte Architektur unabhängig von klimatischen Besonderheiten eingesetzt wurde, wird deutlich, wie groß der Unterschied in der Lebensqualität ist.
Die Stadtplaner der Altstadt von Ghadames dagegen haben auf Klima und Wüstenlage Rücksicht genommen. Die Arbeit analysiert Punkt für Punkt, wie sich die Anpassung in Bauform und Material traditionell vollzieht: So wurden Gebäude mit geeigneten und vor Ort vorhandenen Baustoffen errichtet, die eine angemessene Klimatisierung erlauben. Eine spezielle Lehmbauweise passte sich den Bedingungen der Sahara mit glühender Hitze während des Tages und mit bitterer Kälte in der Nacht optimal an. Gebäude wurden mit sehr dicken Wänden errichtet und so konstruiert, dass durch winkelartige Aufbauten an den Außenwänden, Schatten auf die Oberflächen fallen und damit eine gewisse Feuchtigkeit entsteht, die Wärme absorbiert. Ausdehnung und Kontraktion der Baumaterialien konnten so kompensiert werden.
Diese Art der Lehmbauweise findet man bei verschiedenen Stämmen und Kulturen im weitläufigen Saharagebiet wie z.B. in Mali. Aber einzigartig in Ghadames ist, dass nicht einzelne Bauwerke, sondern eine komplette Stadt wie aus einem Guss gestaltet wurde. Nicht nur Häuser und Moscheen, sondern auch Straßen und Verbindungswege sind überdacht, so dass Ghadames bis auf einige wenige Lichthöfe als ein komplett gegen die Sonne nach oben abgeschirmtes Labyrinth bezeichnet werden kann. Manchmal wird Ghadames auch als unterirdische Stadt betitelt, was zwar gut den atmosphärischen Eindruck, der an einen Keller erinnert, beschreibt, aber sachlich falsch ist, da sie überirdisch erbaut ist. Die ganze Architektur ist ein Bollwerk gegen das sengende Sonnenlicht. Dabei geht es nicht darum, es vollständig abzuwehren, sondern es zu mildern.
Licht- und Schatten-Spiel
Dabei entstehen einzigartige Lichteffekte, die photographisch äußerst reizvoll sind. Dabei ist der Schatten wie allgemein bekannt ist, ein flüchtiges Phänomen, verändert sich je nach geographischer Lage und mit dem täglichen Lauf der Sonne. Die Bewegung der Schatten ist für die Entwicklung und Gestaltung von Räumen und Architektur von weitreichender Bedeutung. Am Baukörper zeigt sich das Wechselspiel von Körper und modellierendem Licht.
In der Stadt Ghadames gab es bis vor kurzem nur eine natürliche Beleuchtung, die über kleinere, verschließbare Öffnungen in der Decke erfolgte. Diese Straßenbeleuchtung hat so ihre eigene Ästhetik im Rhythmus von Licht und Schatten, dass in den Straßen selbst exzeptionelle Lichtkunstwerke sichtbar werden. Ähnliches gilt für die Wohnräume, bei denen das von oben einfallende Licht zusätzlich durch zahlreiche Spiegel vervielfacht und entsprechend den jeweiligen Bedürfnissen umgelenkt wurde.
Auch auf den Dächern zeigen sich architektonische Elemente, die nicht allein aus der Ästhetik erwachsen, sondern gleichzeitig praktischen Nutzen besitzen. Die Oberstadt war allein den Frauen vorbehalten, die sich hier unter sich frei bewegen konnten, aber selbstverständlich auch hier die Schattenplätze bevorzugten. Die Ecken der Häuser sind daher segelförmig ausgewölbt, so dass sich darunter bequem Schatten finden ließ. Sie verleihen der Stadt Ghadames ihre typische, von weitem sichtbare Zackenform.
Die Identität stiftende Rolle von Ghadames für Libyen
Es wird zunächst herausgearbeitet, welche Identität stiftende Rolle Ghadames für Libyen spielt und wie sich die für Ghadames typische eigene Kultur und Lebensform entwickeln konnte. Dabei werden die Bedingungen der Anpassung der Bewohner von Ghadames, geprägt durch verschiedene Einwanderungswellen, an Land und Umgebung, untersucht.
Die Arbeit bestätigt durch eine Analyse der aktuellen Photoszene, wobei sowohl traditionelle als auch moderne Photographien von Ghadames exemplarisch untersucht werden, die Vermutung, dass Ghadames Kristallisationspunkt des Umschwungs innerhalb der libyschen Photographie ist.
Ein weiteres Ziel der Arbeit war, anhand von eigenen künstlerischen Photos die Besonderheit von Licht und Schatten in der Stadt Ghadames aufzuzeigen. Dabei wird der Blick geöffnet für die außergewöhnlichen Perspektiven, die durch die Anwendung unterschiedlicher Phototechniken entstehen, und die dadurch hervorgerufenen künstlerischen Verfremdungseffekte.
Geschichte und Kultur von Ghadames
Dargestellt wird, wie sich diese Entwicklung im Laufe der Zeit verändert hat, wie Urbanisierung und Zivilisation der Menschen in der Vergangenheit auf die Gewohnheiten der Menschen in der Gegenwart eingewirkt haben und noch immer weiter einwirken. Dazu wird eine ausführliche Klimabeschreibung geliefert, sowie ein Abriss der verschiedenen historischen Epochen in Ghadames.
Rezeptionsgeschichte von Ghadames in der Photographie
Daran schließt sich ein Teil an, bei dem gezeigt werden konnte, dass Ghadames schon bei den Afrikaforschern im 19. Jh z.B. bei den Briten Gordon Leng und James Richardson sowie bei dem Deutsche Gerhard Rohlfs von besonderem Interesse war. Berichte bebilderte man zunächst mit Zeichnungen, wenig später dann mit Fotografien. Der erste Afrikareisende mit Fotodokumenten war Victor Langeau gegen Ende des 19.Jh. Daran schließt sich eine Betrachtung der Rezeption von Ghadames in der historischen Fotografie von Marcel und Roselyne Hongrois an, deren Photomaterial die Basis für die Betrachtung der zeitgenössischen Fotografie in Libyen bildet.
Dabei wird aufgezeigt welche Entwicklungsstufen die Photographie in Libyen durchlaufen hat. Repräsentative professionelle Auftragsarbeiten stehen am Anfang, dann folgt eine Phase stereotyper Familienphotos. Überschattes wird beides von der Propagandarolle der Fotografie, die nicht nur alle offiziellen Fotos bestimmt, sondern auch ein freies Photographieren aufgrund der strengen Zensur behindert. Daher entwickelt sich, trotz technischer Voraussetzungen erst verhältnismäßig spät die freie künstlerische Photographie. Da aber internationale Vorbilder in Form von Büchern, Seminaren, Ausstellungen oder andere Informationsquellen fehlen, gibt es kaum Anregungen und wenig eigene Themen.
Dieser Mangel an eigenen Ideen in Libyen ist der wichtigste Grund, diesbezüglich zu forschen und aktiv zu werden. „Licht und Schatten am Beispiel von Ghadames“ ist aber ein Thema, das auch für andere Photographen in Libyen hilfreich sein kann. Es eröffnet den Dialog und unterstützt die im Aufschwung befindliche Photographie in Libyen. Diese Arbeit ist als ein Beitrag zur wissenschaftlichen Forschung im Bereich Photographie gedacht, die in libyschen Bibliotheken und Archiven fehlt. Sie soll Anstoß geben, dass libysche Photographen in den internationalen Dialog einsteigen und immer wieder darüber nachdenken, was ist die Bedeutung und das Ziel der eigenen photographischen Arbeit ist.
Das Phänomen „Licht und Schatten“ in der Photographie und Malerei
Die Arbeit zeigt, dass das Spiel von Licht und Schatten auch in der eigenen Photoarbeit nicht nur rein ästhetisches Phänomen ist, sondern sich darin für Libyen so charakteristische Lichtverhältnisse spiegeln. Durch die geographische Lage ist die Sonneneinstrahlung intensiver, die Kontraste sind härter, die Schatten tiefer als in eher gemäßigten Zonen wie Europa oder Nordamerika. Die Sonne ist daher auch bedeutungsmäßig anders aufgeladen.
In der Malerei und Photographie spielen Licht und Schatten als Gestaltungsmittel eine bedeutende Rolle. Ein Überblick über einige der wichtigsten Vertreter in der Malerei und in der Photographie macht das im Rahmen der Arbeit deutlich. Dabei gilt es einen grundlegenden Unterschied zwischen den Gattungen zu beachten: Der Maler kann verschiedene Licht- und Farbeffekte für seine Bilder erfinden, der Photograph dagegen geht mit der Wirklichkeit um, er muss sich die Farben und die Beleuchtung suchen. Natürlich gibt es jetzt Photoshop, man kann damit manipulieren, aber entscheidend ist das gewünschte Resultat. Wenn man dokumentarisch arbeitet, dann muss man versuchen, das Bild so aufzunehmen, dass alles darauf ist, was man zeigen will. Und wenn man verblüffen will, etwa expressive Wirkungen haben will, muss man die entsprechenden Mittel einsetzen.
Mein eigener photographischer Ansatz
Mein photographischer Ansatz unterscheidet sich grundlegend von diesen Beispielen und entsteht aus einer Mittlerposition zwischen der europäischen und der arabischen Kultur. In meinen freien Arbeiten versuche ich mit einer nahezu abstrakten Bildauffassung, dem für Ghadames typischen Phänomen von Licht und Schatten näher zu kommen. Ghadames entstand als architektonische Gesamtkomposition, als gebauter Schattenfänger über einer Quelle mitten in der von der Sonne beherrschten Wüste. Schatten wird hier anders als in der europäischen Tradition als positiver, Leben spendender Zustand im Gegensatz zur sengenden und alles verbrennenden Sonne aufgefasst. Die Architektur der Stadt ist in idealer und einzigartiger Weise an die klimatischen Bedingungen und an den Lauf der Sonne angepasst. Diese gebaute Schattenskulptur ist mehr als Kulisse und Motiv für meine Photographie, denn in meiner Arbeit spiegeln sich Licht und Schatten auch als grundlegendes Thema der Photographie, bei der Hell- und Dunkelwerte das Lichtbild erschaffen. Photographie ist auf enge Weise mit dem Thema Licht und Schatten verbunden. Die Malerei versucht, die Dreidimensionalität mittels abgestufter Helligkeitswerte der einzelnen Farbtöne darzustellen und ist darin ziemlich frei, in der Photographie aber wird das Bild allein aus dem Licht geboren. Das Motiv wird aus Licht und Schatten moduliert. Wenn Licht auf einen dreidimensionalen Körper trifft, werden verschiedene Schattenformen wie Schlagschatten, Eigenschatten und Schattierungen erzeugt. Der Schatten spiegelt die Form eines Lebewesens oder Gegenstandes, der von Licht getroffen wird. Wo Schatten ist, ist auch Licht. Er ist zeitabhängig, vergänglich und wechselhaft.
Für mich als Photograph ist daher dieser Aspekt von Licht und Schatten in der Stadt Ghadames außerordentlich interessant. Im Arabischen steht der Begriff „Gamalyate“ für Schönheit. Das Hauptziel dieser Arbeit besteht für mich darin, die herausragende Schönheit und Ästhetik des Lichts über die physikalisch-technischen Gegebenheiten hinaus durch meine künstlerische Photographie erfahrbar werden zu lassen,
Kontrastausgleich - Aufnahmen mit HDR
Die Malerei, insbesondere die Freilichtmalerei der Impressionisten, hat schon immer mit dem Problem gekämpft, die unterschiedlichen Lichtqualitäten von Außen- und Innenraum in einem Bild zu integrieren. Das ist ihnen mit malerischen Mitteln einfacher gelungen, weil sie sich vom Gegenstand insofern entfernen konnten, als sie einen Kontrastausgleich innerhalb ihrer Malerei vornahmen. Fensteransichten waren ein beliebtes Motiv, wobei man sowohl das Drinnen als auch das Draußen erkennt. Das Problem des Kontrastausgleiches habe ich bei meiner photographischen Arbeit gelöst, indem ich ein spezielles digitales Verfahren angewendet habe. Die Technik heißt HDR. Diese Technik lässt Modulationen in den Schattenbereichen zu und gleichzeitig moderiert sie auch die intensiven Lichter. Deshalb komme ich hier in diesen Ansichten zu einem dem natürlichen Seheindruck recht nahen Abbild, so wie die Besucher die Gänge erleben, weil das menschliche Auge von Natur aus in der Lage ist, den Kontrastumfang in einer viel besseren Art und Weise auszugleichen als es das Filmmaterial oder auch das digitale Material kann.
Die erwähnte HDR Technik führt mich zu Bildern, die fast ein wenig wie Zebras aussehen.
Schwarz und Weiß wechseln sich ab, gefolgt von Graunuancen. Diese Farbigkeit ist für mich neben diesen anderen beiden Werkgruppen der Gänge sehr interessant, weil dadurch auch die Darstellung der Verschachtelung und auch der Perspektiven in meinen Bildern gelingt. Besonders deutlich wird das, wenn man Aufnahmen des gleichen Motivs zu verschiedenen Tageszeiten, einmal mit weichem, einmal mit hartem Licht aufgenommen, gegenüberstellt.
Das Ziel der Arbeit war die systematische Untersuchung zum Rb/K-Ionenaustauschverhalten von K(TiO)PO4-Einkristallen. Es wurde der Rb-Austauschgrad in Abhängigkeit von der Salzschmelzenzusammensetzung untersucht. Hierbei lag das Augenmerk auf der Einstellung des Austauschgleichgewichtes. Desweiteren wurde die Abhängigkeit des Rb/K-Diffusionskoeffizienten von der Salzschmelzenzusammensetzung untersucht. Die Austauschzeit wurde im Bereich 8 min - 16 h variiert. Mit einer Nitratschmelze aus 75 mol-% RbNO3 - 25 mol-% KNO3 wurde ein Rb-Austauschgrad von 0,29 +- 0,06 gefunden. Mit mehrfach geladenen Kationen betrug die Austauschzeit 8 min. Der höchste Rb-Austauschgrad wurde mit BiONO3 in der Schmelze gefunden (0,66) Der Rb/K-Diffusionskoeffizient erreicht mit mehrfach geladenen Kationen in der Schmelze Werte von etwa 1,0 * 10E-9 cm²/s. Die gefundene Anisotropie der Austauschgeschwindigkeit beträgt bei RbNO3-KNO3-Schmelzen etwa 100/1 und bei zweifach geladenen Kationen in der Schmelze etwa 250/1. Mittels Ionenaustausch wurde eine vorgegebene Gitterstruktur etwa 20 µm in die Tiefe eingebracht. Durch rein thermischen Ionenaustausch können extrem schmale und zugleich tiefe Austauschareale erzeugt werden.
Keine Ahnung? Landschaft!
(2018)
... soll auf den folgenden Seiten eine dritte Richtung angedeutet und vorgezeichnet werden, die ebenso Interesse am Erkenntnisgewinn durch das Thema Landschaft bekundet, dies hingegen aus der Umkehrung heraus erreichen will. Dreht man den Richtungspfeil, stehen wir ihr, der Landschaft, gegenüber. Vom Modus des Aktiven geraten wir in die Passivität. Damit wird eine Korrektur der Fragestellung möglich. Es entsteht eine Perspektive, die die Überlegungen zulässt: Was die Landschaft eigentlich mit uns macht?, welchen Horizont sie uns eröffnet und entstehen lässt, welche Bedeutung und welche Qualität wir dem ›Landschaftlichen‹ zuschreiben können, worin die Notwendigkeit ihres Erhalts und der Nutzen für die gegenwärtige Gesellschaft bestehen kann.
Architektonisches Entwerfen ist ein kreativer Prozess, der eine Lösung hervorbringt, die in ihrer Form und ihrer Funktionalität so noch nicht bestand. Resultat eines architektonischen Entwurfes ist ein Original, dessen Entstehen eine schöpferische Komponente erfordert. Dieser kreative Prozess ist nicht systematisierbar und kann auch nicht als Methode wiederholbar gemacht werden. Im Rahmen der architektonischen Lehre ist die Vermittlung von Methoden zur Entwurfsfindung jedoch ein wesentlicher Aspekt. Der hier vorgestellte Entwurf möchte zeigen, dass der Auffassung, allein intuitive Methoden als Entwurfsgrundlage zu nutzen, die Auffassung entgegen steht, eine reglementierte Methode zur Entwurfs- und Formfindung anzuwenden.
Eine solche reglementierte Methode wird hierbei als Entwurfsgrammatik bezeichnet.
In den 1950er Jahren entstehen zwei revolutionäre Werke des Komponisten und Architekten Iannis Xenakis: die Komposition Metastaseis und der Philips-Pavillon für die Weltausstellung in Brüssel. Basierend auf diesen Arbeiten wird eine Methode vorgestellt, welche musikalische Parameter in architektonischen Parameter transformiert.
Diese Methode bildet die Grundlage für ein exaktes räumliches Transformation-Modell, welches aus mathematischen Funktionen abgeleitet ist. Dabei weißt das Transformations-Modell eine starke Ähnlichkeit mit der Architektur des Pavillons auf.
Im Rahmen des sich derzeit vollziehenden Wandels von der segmentierten, zeichnungsorientierten zur integrierten, modellbasierten Arbeitsweise bei der Planung von Bauwerken und ihrer Erstellung werden Computermodelle nicht mehr nur für die physikalische Simulation des Bauwerksverhaltens, sondern auch zur Koordination zwischen den einzelnen Planungsdisziplinen und Projektbeteiligten genutzt. Die gemeinsame Erstellung und Nutzung dieses Modells zur virtuellen Abbildung des Bauwerks und seiner Erstellungsprozesse, das sog. Building Information Modeling (BIM), ist dabei zentraler Bestandteil der Planung. Die Integration der Terminplanung in diese Arbeitsweise erfolgt bisher jedoch nur unzureichend, meist lediglich in der Form einer nachgelagerten 4D-Simulation zur Kommunikation der Planungsergebnisse. Sie weist damit im Verhältnis zum entstehenden Zusatzaufwand einen zu geringen Nutzen für den Terminplaner auf. Gegenstand der vorliegenden Arbeit ist die tiefere Einbettung der Terminplanung in die modellbasierte Arbeitsweise. Auf Basis einer umfassende Analyse der Rahmenbedingungen und des Informationsbedarfs der Terminplanung werden Konzepte zur effizienten Wiederverwendung von im Modell gespeicherten Daten mit Hilfe einer Verknüpfungssprache, zum umfassenden Datenaustausch auf Basis der Industry Foundation Classes (IFC) und für das Änderungsmanagement mittels einer Versionierung auf Objektebene entwickelt.Die für die modellbasierte Terminplanung relevanten Daten und ihre Beziehungen zueinander werden dabei formal beschrieben sowie die Kompatibilität ihrer Granularität durch eine Funktionalität zur Objektteilung sichergestellt. Zur zielgenauen Extraktion von Daten werden zudem Algorithmen für räumliche Anfragen entwickelt. Die vorgestellten Konzepte und ihre Anwendbarkeit werden mittels einer umfangreichen Pilotimplementierung anhand von mehreren Praxisbeispielen demonstriert und somit deren praktische Relevanz und Nutzen nachgewiesen.
Augrund des demographischen Wandels und der damit einhergehenden Abnahme der Bevölkerungszahlen in den ländlichen/peripheren Regionen der Bundesrepublik Deutschland sieht sich die öffentliche Hand mit rückläufigen Haushalten konfrontiert. Unterauslastungen von Einrichtungen der öffentlichen Daseinsvorsorge werden zukünftig nicht mehr finanzierbar sein. Raumordnungspolitisch postulierte Handlungsansätze einer notwendigen Anpassung der Infrastruktur an diese neue Situation liegen in der Neuordnung der Zentrale-Orte-Konzeption. In Folge daraus wird es zu einer Revision des Systems der Zentralen Orte kommen [BMVBW BBR 2005]. In Ableitung daraus müssen die vorhandenen Erreichbarkeitskriterien innerhalb der betroffenen (nachgeordneten) Straßennetzteile überprüft werden. Dem schließt sich die Frage nach differenzierten Ausbauqualitäten von Straßen an. Dieser Fragestellung widmet sich, unter Zuhilfenahme der wirtschaftlichen Bewertungsmethodik der Empfehlungen für Wirtschaftlichkeitsuntersuchungen an Straßen, die vorliegende Arbeit. Im Gegensatz zu vorhandenen verkehrswirtschaftlichen Untersuchungen unterscheidet sich die vorliegende Arbeit durch die Implementierung zusammenhängender Netzstrukturen in gekannte Modellansätze. Über die ermittelten Bewertungsparameter konnten somit großräumige Effekte einer kleinräumig angelegten Reduzierung der Ausbauqualität von Straßen Berücksichtigung finden. Exemplarisch wurden anhand eines strukturdatenbasierten Nachfrage- und Umlenkungsmodells für ein nach speziellen Kriterien ausgesuchtes Untersuchungsgebiet die Eingangsgrößen für das angewendete wirtschaftliche Bewertungsverfahren bestimmt. Das Ausmaß der Empfindlichkeit gegenüber den monetären und teilweise inhaltichen Ansätzen wurde durch eine Sensitivitätsanalyse belegt. Im Ergebnis der vorliegenden Arbeit konnte für die nachgeordneten Straßennetze des Untersuchungsgebietes der Nachweis einer kostenoptimalen Ausbaugeschwindigkeit erbracht werden, d.h. in Bezug auf eine verkehrswirtschaftliche Betrachtung ist dort die Reduzierung der vorhandenen Ausbauqualität sinnvoll.
Bauwerke sind in der Regel Unikate, für die meist eine komplette und aufwändige Neuplanung durchzuführen ist. Der Umfang und die Verschiedenartigkeit der einzelnen Planungsaufgaben bedingen ein paralleles Arbeiten der beteiligten Fachplaner. Darüber hinaus ist die Bauplanung ein kreativer und iterativer Prozess, der durch häufige Änderungen des Planungsmaterials und Abstimmungen zwischen den Fachplanern gekennzeichnet ist. Mithilfe von speziellen Fachanwendungen erstellen die Planungsbeteiligten verschiedene Datenmodelle, zwischen denen fachliche Abhängigkeiten bestehen. Ziel der Arbeit ist es, die Konsistenz der einzelnen Fachmodelle eines Bauwerks sicherzustellen, indem Abhängigkeiten auf Basis von Objektversionen definiert werden. Voraussetzung dafür ist, dass die Fachanwendungen nach dem etablierten Paradigma der objektorientierten Programmierung entwickelt wurden. Das sequentielle und parallele Arbeiten mehrerer Fachplaner wird auf Basis eines optimistischen Zugriffsmodells unterstützt, das ohne Schreibsperren auskommt. Weiterhin wird die Historie des Planungsmaterials gespeichert und die Definition von rechtsverbindlichen Freigabeständen ermöglicht. Als Vorbild für die Systemarchitektur diente das Softwarekonfigurationsmanagement, dessen Versionierungsansatz meist auf einem Client-Server-Modell beruht. Die formale Beschreibung des verwendeten Ansatzes wird über die Mengenlehre und Relationenalgebra vorgenommen, so dass er allgemeingültig und technologieunabhängig ist. Auf Grundlage dieses Ansatzes werden Konzepte für den Einsatz versionierter Objektmodelle im Bauwesen erarbeitet und mit einer Pilotimplementierung basierend auf einer Open-Source-Ingenieurplattform an einem praxisnahen Szenario verifiziert. Beim Entwurf der Konzepte wird besonderer Wert auf die Handhabbarkeit der Umsetzung gelegt. Das betrifft im Besonderen die hierarchische Strukturierung des Projektmaterials, die ergonomische Gestaltung der Benutzerschnittstellen und der Erzielung von geringen Anwortzeiten. Diese Aspekte sind eine wichtige Voraussetzung für die Effizienz und Akzeptanz von Software im praktischen Einsatz. Bestehende Fachanwendungen können durch geringen Entwicklungsaufwand einfach in die verteilte Umgebung integriert werden, ohne sie von Grund auf programmieren zu müssen.
Der Entwurfsraum für den Entwurf eines Tragwerks ist ein n-dimensionaler Raum, der aus allen freien Parametern des Modells aufgespannt wird.
Traditionell werden nur wenige Punkte dieses Raumes durch eine numerische (computergestützte) Simulation evaluiert, meist auf Basis der Finite-Elemente-Methode.
Mehrere Faktoren führen dazu, dass heute oft viele Revisionen eines Simulationsmodells durchlaufen werden: Zum einen ergeben sich oft Planungsänderungen, zum anderen ist oft die Untersuchung von Planungsalternativen und die Suche nach einem Optimum wünschenswert.
In dieser Arbeit soll für ein vorhandenes Finite-Elemente-Framework die sequentielle Datei-Eingabeschnittstelle durch eine Netzwerkschnittstelle ersetzt werden, die den Erfordernissen einer interaktiven Arbeitsweise entspricht. So erlaubt die hier konzipierte Schnittstelle interaktive, inkrementelle Modelländerungen sowie Status- und Berechnungsergebnis-Abfragen durch eine bidirektionale Schnittstelle.
Die Kombination aus interaktiver numerischer Simulation und Interoperabilität durch die Anwendung von Konzepten zur Bauwerks-Informations-Modellierung im Tragwerksentwurf ist Ziel dieser Dissertation. Die Beschreibung der Konzeption und prototypischen Umsetzung ist Gegenstand der schriftlichen Arbeit.
Koulu - Schule auf Finnisch : Funktions-, Raum- und Gestaltungskonzepte für neue Schulen in Finnland
(2008)
Beginnend mit einem historischen Rückblick auf die Entwicklung des Schulbaus in Finnland sowie einen Überblick zu den rechtlichen und organisatorischen Rahmenbedingungen für den Schulbau, wird in der Untersuchung dargestellt, dass in Finnland ein traditioneller Grundkonsens darüber besteht, dass Bildung eine besonders wichtige gesellschaftliche Aufgabe darstellt und Art sowie Umfang ihrer Erfüllung von herausragender Bedeutung für die Zukunft des Landes ist. Daher wird dem Thema „Schule“ nicht nur in der Theorie, sondern auch im praktischen Alltag ein ausgesprochen hoher Stellenwert beigemessen. Auch die Lernumgebung wird mit besonderer Sorgfalt gestaltet. Die Gestaltung zahlreicher finnischer Bildungsanstalten ist transparent und flexibel. Das Schulgebäude ist somit für zukünftige Anforderungen leicht adaptierbar. Zu diesem Zweck wird architektonische Vielfalt mit einem hohen Grad an Funktionalität verbunden, die gleichzeitig lokale Gegebenheiten und Bedürfnisse berücksichtigt. Prägend für die Funktions-, Raum- und Gestaltungskonzepte sind insbesondere der Baukörper und seine Form, die Erschließung der Schule und die Raumfolge innerhalb des Gebäudes, die Raumfunktion und Nutzung einzelner Bereiche sowie ein hohes Maß an räumlich-visueller Kommunikation und Transparenz, sowohl innerhalb der Klassencluster als auch zwischen unterschiedlichen Funktionsbereichen der Schulen. Diese Parameter wurden in der vorliegenden Studie anhand von zahlreichen Fallbeispielen eingehend untersucht und dokumentiert. Durch einen frühzeitig geführten, intensiven Dialog zwischen Behörden, Pädagogen und Architekten sind räumliche Konzepte entstanden, die das Erlernen von sozialen Kompetenzen, Teamfähigkeit und Gruppenarbeit unterstützen und fördern.
Kritische Theorie des Ornaments – Zum Statuswandel der Ästhetik in der architektonischen Moderne
(2002)
Gegen die Kahlschlagmetapher von der "Liquidierung des Ornaments" steht im Zentrum der Dissertation die These vom Statuswandel des Ornaments in der architektonischen Moderne. Am Punkt des technologischen Paradigmenwechsels wird das Ornament im Spannungsfeld diskutiert zwischen der Maschinenproduktion zu Beginn des 20. Jhd. und der Virtualisierung der Kultur im Computerzeitalter, d.h. zwischen der vermeintlichen Abschaffung des Ornaments durch Loos (1910) und Eisenmans performativen Entwurfsverfahren (1990). Die Frage stellt sich, inwiefern die Ornamentproblematik der Moderne nicht als Vorgeschichte zur spezifischen Problematik der medialisierten Massenkultur und ihrer digitalen Bildlogik heute zu lesen wäre. Mit V. Sklovskij und S. Freud, M. Tafuri und K. M. Hays, aber auch zwischen Adornos Ästhetik der "Nicht-Identität" und Derridas "Parergonalität" geht es um die semiologische Reformulierung des Ornaments: im Übergang der Ästhetik der Moderne vom Dualismusprinzip zum Wiederholungsprinzip, von der affirmativen Rückbezüglichkeit zur kritischen Performativität und von der Objektproduktion zur Medialisierung der Kultur.
Die Arbeit beschäftigt sich mit der Entstehung eines ökonomischen Kraftmaßes am Beispiel der Maschine von Marly im Zeitraum von ca. 1680 bis 1840. Die Leitthese der Dissertation besagt, dass vom 17. zum 19. Jahrhundert eine grundlegende Transformation des Maschinenbegriffs stattfand, die als Übergang vom Substanzbegriff zum Funktionsbegriff der Maschine bezeichnet werden kann. Im 17. Jahrhundert wurden mechanische Apparate als in sich geschlossene, selbstbezügliche Strukturen aufgefasst. Als anschaulich erfahrbare Objekte konnten sie als Bildgeber dienen, die mittels des Verfahrens der Strukturanalogie Erklärungsmuster für verschiedenste Phänomene (Körper, Staat, Welt) boten. Demzufolge galten sie als selbstevident: sie waren erklärend und mussten selbst nicht erklärt werden. Ihr etwaiger Zweck und ihre Einbettung in gesellschaftliche Zusammenhänge spielten dabei keine Rolle. Wie anhand der Beschreibungen und Darstellungen aus jener Zeit nachgewiesen werden kann, wurde die Maschine von Marly innerhalb dieser Episteme als architektonisches Objekt wahrgenommen, bei dem vor allem das Zusammenspiel der einzelnen Elemente Aufmerksamkeit erregte. Wie andere Maschinen auch stand sie unter dem Primat der Sichtbarkeit. Man war davon überzeugt, dass die Eigenschaften einer Maschine von der strukturellen Anordnung ihrer Bauteile abhingen und glaubte, ihre Qualität an ihrer Gestalt ablesen zu können. Ab der Mitte des 18. Jahrhunderts tauchte die Maschine von Marly in den Schriften physiokratischer Autoren auf. Zuerst diente sie dort als Beispiel für die Verschwendungssucht Louis’ XIV. und als Metapher für eine schlechte Einrichtung des Staates. Doch zunehmend begann man, sie auch in ihrer Faktizität als technisch-politisches Objekt zu begreifen. Man kritisierte ihre aktuelle Nutzung und schlug andere Möglichkeiten ihrer Verwendung vor, etwa die Bewässerung von Feldern oder die städtische Trinkwasserversorgung. Damit war die Maschine von Marly nicht länger ein Modell für die Einrichtung des Staates, das nur am Maßstab der immanenten Perfektion beurteilt werden konnte. Vielmehr war sie nun ein Instrument der Regierung, das sich als Teil eines staatlich verfassten Gemeinwesens verantworten musste. Als solches wurde sie auch zu einem bevorzugten Gegenstand aufklärerischer Reformprojekte. Das zeigt sich besonders deutlich am Wettbewerb, den die Pariser Akademie der Wissenschaften 1784-1786 organisiert hatte und der Vorschläge zur Verbesserung oder Ersetzung der Maschine von Marly zum Gegenstand hatte. Die Auswertung der mehr als 100 eingereichten Projekte und Memoranden ermöglicht einen einzigartigen Blick auf die Hoffnungen und Wünsche, die Ende des 18. Jahrhunderts an die Erfindung technischer Geräte gekoppelt waren. Um 1800 kann man die allmähliche Entstehung eines Funktionsbegriffs der Maschine bemerken. Lazare Carnots Essai sur les machines en général, der eine in der Sprache der Algebra artikulierte Definition der Maschine beinhaltete, trug maßgeblich dazu bei, die Anschaulichkeit zugunsten eines operativen Symbolismus zu delegitimieren. Erst dadurch war die Formulierung eines Effizienzkalküls möglich. Ergänzt wurde diese Formalisierung durch den Diskurs der Industrialisierung, in dem technische Apparate zunehmend als Produktionsmittel verstanden wurden. Die Maschine von Marly war ein wichtiger Schauplatz für die Entstehung eines ökonomischen Kraftmaßes. Nicht nur wurden dort Experimente mit verschiedenen Messinstrumenten (Dynamometern) durchgeführt, auch diente sie Joseph Montgolfier als Beispiel um zu beweisen, dass Kraft als Geldwert ausgedrückt werden könne. In den ersten Jahrzehnten des 19. Jahrhundert wurden Maschinen schließlich relational als Positionen innerhalb eines nationalen Produktionssystems definiert. Sie galten als Krafttransformatoren, bei denen ein bestimmter Input von ‚force motrice’ einen entsprechenden Output von ‚travail utile’ ergeben würde. Ihre vornehmlichste Aufgabe war die möglichst effiziente Ausnutzung der Kraftressourcen. Den vorläufigen Endpunkt erreichte die Entstehung des ökonomischen Kraftmaßes um 1830 mit der Formulierung des Begriffs der ‚mechanischen Arbeit’.
Theoretischer Teil:
Durch den Vergleich der Daten, die sowohl von den Instituten bzw. Statistikunternehmen z. B. Google, Bundesnetzagentur und Statista in Deutschland, 中国互联网络信息中心 in China, FIND in Taiwan usw. zur Verfügung gestellt wurden, als auch durch die von mir durchgeführten Umfragen in den jeweiligen Ländern, sowie durch die Interviews in Weimar, zeigen sich die kulturellen Unterschiede sowie die Gemeinsamkeiten bei der Nutzung des Smartphones. Darüber hinaus ergaben sich noch einige Konsequenzen bei den Interpretationen dieser Ergebnisse, die eng mit der Entstehung der kulturellen Unterschiede zusammenhängen.
Praktischer Teil:
Der erste Entwurf ist eine visuelle Tastatur. Um die Bildschirmtastatur zu verbessern, versucht type right ! (der Name meines Entwurfs) das Problem von Vertippen beim Eingeben zu lösen. type right ! hat zwei Schwerpunkte: 1. geänderte Positionen der Buchstaben und Zeichen und 2. geänderte Form der Taste.
Der zweite Entwurf handelt von einem Konzept einer App für die Integrationsmöglichkeit der Kommunikation.
Das Waldhufendorf Nakléřov (Nollendorf) gehört, wie eine Vielzahl weiterer Orte im bis 1945 hauptsächlich von deutschsprachiger Bevölkerung besiedelten tschechischen »Grenzgebiet«, zu jenen Orten, die heute aus der Perspektive verschiedener Akteure als verschwunden oder untergegangen beschrieben werden. Auf Grund ihres allgegenwärtigen fragmentarischen Erhaltungszustands und der oft fehlenden Bausubstanz scheinen sie bei einer oberflächlichen Schau nicht als Interessensgebiete der Denkmalpflege in Frage zu kommen. Untersucht man sie mit den wertneutralen Analyse- und Inventarisierungsverfahren der Angewandten Historischen Geografie, so kommt man zu einem differenzierteren Ergebnis, das zum einen die Darstellung als verschwundene Orte fragwürdig erscheinen lässt und zum anderen zu einer Neufokussierung des Aspekts der Abwesenheit aus denkmalpflegerischer Sicht führt. Im Verlauf der Bestandsaufnahme der gegenwärtigen materiellen Verfasstheit des paradigmatisch untersuchten Ortes, der Gesamtschau des Noch-Vorhandenen als komplexem Netz unterschiedlichster Indizien, die sowohl auf historische Tiefenschichtungen als auch auf Abwesenheiten verweisen, hat sich gezeigt, dass der Ort Nakléřov über vielfältige Relikte und Spuren verfügt, die auf seine Entstehung sowie unterschiedliche historische Epochen und Zäsuren verweisen. Basierend auf dem Palimpsest als Vorstellungsgerüst und der Spurensuche als Leitmotiv einer verräumlichten Geschichtsschreibung führte der am Ort erprobte mikrohistorische Blick zu einer geschärften Perspektive auf verborgene und verschwundene Schichten und Objekte, auf sich räumlich ausdrückende Machtverhältnisse und politische Zäsuren.
Zur Veranschaulichung wurden verschiedene Möglichkeiten einer GIS-basierten kartografischen Erfassung aufgezeigt, die der Besonderheit einer Landschaft der Leerstellen des 20. Jahrhunderts mit der Wüstung eines Ortes vor dem Hintergrund der Zwangsmigration der deutschen Bevölkerung und des politischen Regimewechsels nach 1945 gerecht werden sollte. In Fortführung der Denkanstöße von Norbert HUSE, den denkmalpflegerischen Leistungsbegriff in Frage zu stellen und auch Orte der Abwesenheit hinsichtlich ihrer potentiellen Denkmalwertigkeit zu hinterfragen, sowie in Anknüpfung an das Konzept der European Landscape Convention (2004), auch Landschaftsschäden und die Vergegenwärtigung nicht mehr vorhandener Landschaftscharakteristika in die Inventarisierung einzubeziehen, wurde im Untersuchungsgebiet der Kartierung stark geschädigter und verschwundener Bereiche und Objekte besondere Aufmerksamkeit gewidmet. Den Ausgangspunkt bildete die Bestandsaufnahme der Kulturlandschaftselemente mit historischem Zeugniswert, die unabhängig von Kriterien wie Schönheit oder kunsthistorischer Wert erfasst wurden. Auf der Chronotop-Karte hingegen wurde die Genese des Ortes zurückverfolgt. Das gleichzeitige Nebeneinander ungleichzeitiger Elemente wurde in verschiedenen räumlichen Ausschnitten hinsichtlich seiner Entwicklungsgeschichte analysiert, historisch kontextualisiert und auf Kontinuitäten und Zäsuren hin überprüft. Dabei stand nicht die Eruierung eines kulturlandschaftlichen »Urtextes« im Fokus, sondern das Herausarbeiten von Zeitschichten. Eine Gründung als Waldhufendorf von deutschen Siedlern um 1100, wie in den Dorfchroniken kolportiert, war nicht nachweisbar. Zu belegen ist, dass sich das im Kern mittelalterliche Dorf mit einer spätestens in der ersten Hälfte des 17. Jh. planmäßig angelegten Waldhufenstruktur bis zur Zäsur von 1945 über ca. 350 Jahre in dieser Form auch weiterentwickelt hat.
Mit der Zwangsmigration der deutschsprachigen Bevölkerung verschwand das »Pflegepersonal« der Kulturlandschaft. Auch durch die nachfolgende genossenschaftliche und militärische Nutzung veränderte sich der Ort flächendeckend. Die kleinteilige und durch pflanzliche Diversität gekennzeichnete Bewirtschaftung wich unter den neuen sozio-ökonomischen Bedingungen einer monokulturellen Flächenbewirtschaftung. Während die Teile des Flurbildes, die in funktionalem Zusammenhang mit der dörflichen Siedlung standen, größtenteils verloren gegangen sind, wurde der Charakter des Verkehrskorridors hingegen noch verstärkt. Der 1938 geplante Autobahnabschnitt auf der Trasse des prähistorischen Nollendorfer Passes wurde zu Beginn des 21. Jh. als Teil der A17 realisiert. Die zentrale Lage in einer Transitlandschaft erwies als entscheidend für die Entwicklung des Dorfes. Neben der Bedeutung als Handels- und Poststraße war die durch den Ort führende Querung des Osterzgebirges militärstrategisch wichtig und wurde im Verlauf verschiedener Kriege spätestens ab dem 11. Jh. bis 1945 rege genutzt. Mehrfach wurden Teile des Dorfes zerstört, doch im Gegensatz zur Zäsur nach 1945 erfolgte stets ein Wiederaufbau. Ernsthafte Bemühungen einer Neubesiedlung im Zuge der Wiederbesiedlungspolitik im Grenzgebiet sind nicht zu verzeichnen. Vielmehr wurden fast 90% des Gebäudebestands zwischen 1949–1964 als Abbruchhäuser verkauft oder dem Verfall überlassen.
Heute existieren in Nakléřov bauliche Zeugnisse in unterschiedlichen Erhaltungsgraden, die im Zusammenhang mit verschiedenen Phasen der Expansion, Stagnation und Regression in der Siedlungsentwicklung zu sehen sind. Die historische Bedeutung des Ortes ist nicht allein aus seiner fragmentarisch erhaltenen Gebäudesubstanz abzuleiten, sondern liegt in der Kontinuität der Gebäudestandorte und der Verbindung von Flur und Bauparzelle. In einem Waldhufendorf stellen die Lesesteinwälle das materialisierte Ordnungsgefüge dar. An ihnen wird der Dorfgrundriss mit seiner Parzellenstruktur erkennbar, der zur ältesten materiellen geschichtlichen Überlieferung auf dem Lande gehört. Die bauliche Substanz tritt in ihrer Bedeutung in den Hintergrund, wird zum Inventar, das auf Grund besonderer Rahmenbedingungen ausgetauscht wird. Vielmehr ist es in Nakléřov das durch die Lesesteinrücken markierte Nichtmehrvorhandensein vieler baulicher Strukturen, das als Bestandteil des historischen Zeugniswertes des Ortes zu bewerten ist. Die Lesesteinrücken sind nicht nur Spuren im Sinne von siedlungsgeschichtlich relevanten Überresten, sondern zugleich auch Spuren im Sinne von materiellen Anhaltspunkten, die Abwesenheit bezeugen und über das impulsgebende Potential verfügen, diese Abwesenheit zu hinterfragen und dem spurenbildenden Geschehen nachzuspüren. Das für Nakléřov prägnante ubiquitäre Zusammenspiel von an- und abwesenden Objekten wurde auf einer eigens entwickelten, auch auf andere Orte (im Grenzgebiet) übertragbaren Kartierung (KE) festgehalten, in der die Materialströme 1945–2012 dokumentiert wurden. Aktuell durch materielle Konstellationen markierte Orte der Leere wurden dechiffriert, indem Relikte nach Zeitschichten gestaffelt mit Visualisierungen verschwundener Objekte hinterlegt wurden.
Die über materielle Überreste transportierte Erfahrung von Abwesenheit wird auch an scheinbar kontext- und funktionslosen Elementen deutlich. Dazu gehört in Nakléřov z.B. ein Parkplatz, dessen Verwendungszweck zwar eindeutig ist, wohingegen sich seine Funktion an diesem Ort nicht ohne Hinzuziehung von Quellen erschließt. Ihn als Erwartungen störendes Element, dem eine »verdächtige Abwesenheit« inhärent ist, aufzufassen und als unabsichtliche Hinterlassenschaft zu hinterfragen, hat den Anstoß zur erinnerungskulturellen Dechiffrierung der banal anmutenden Fläche gegeben. Das Weiterverfolgen seiner Spur hat verschiedene Strategien der Verdrängung von erinnerungsstützenden und wahrnehmungslenkenden Artefakten und Zeichensetzungen sowie das dynamische und teils antagonistische Beziehungsgeflecht der sich in diesem räumlichen Ausschnitt befindlichen Objekte offengelegt. Neben Beschriftungen an einem Aussichtsturm und einem Schlachtendenkmal, deren Wechsel sich verändernde gesellschaftspolitische Bedingungen des 20. Jh. reflektieren, ist es ein »dichter Ort«, dessen geografische Lage zum Versuch einer gedächtnispolitischen Umcodierung und räumlichen Verankerung eines neuen Geschichtsnarrativs geführt hat. Der heute durch ein Holzkreuz markierte Ort war 300 Jahre lang Standort einer sakralen Landschaftsdominante, die 1975 in Vorbereitung der Installation eines Sowjetdenkmals gesprengt wurde. Die Planungsunterlagen belegen, dass ein Zulassen räumlich sichtbarer Erinnerungskonkurrenzen auszuschließen war und eine politisch motivierte Neubesetzung des Ortes unter besonderer Berücksichtigung seiner in die Landschaft ausgreifenden Raumwirkung angestrebt war. Einer der wenigen materiellen Überreste, die auf die Geschichte zur Errichtung des größten Sowjetdenkmals in Nordböhmen verweisen, ist der Parkplatz. Vor allem an diesem Beispiel hat sich auch gezeigt, dass der sich aus einem feinen Gespinst unterschiedlichster materieller Konstellationen zusammensetzende Ort als Geschichtsquelle nur bedingt anschaulich und »lesbar« ist. Neben die Bestimmung des historischen Zeugniswertes des Untersuchungsgebietes durch kartierte und »erzählte Geschichte« trat so zwangsläufig auch der Subtext einer Beschreibung des Prozesses der Spureninterpretation.
Dieser »dichte Ort« ist heute ein Ort aktiver objektgebundener Gedenkpraktiken, der durch eine Koexistenz von Erinnerungssträngen gekennzeichnet ist und von unterschiedlichen Akteuren genutzt wird. Die zweisprachige Tafel am Schlachtendenkmal, Pläne zur Wiedererrichtung des Aussichtsturms und zu Baumaßnahmen unter Berücksichtigung der historischen Siedlungsstruktur deuten auf eine wachsende Akzeptanz des kulturhistorischen Erbes der deutschsprachigen Bevölkerung hin. Auch verschiedene tschechische Projekte zur Dokumentation des Grenzgebiets, einschließlich der Erfassung dessen, was zerstört oder nur noch in Überresten vorhanden ist, belegen die Bereitschaft, sich mit der Geschichte der Landschaft auseinanderzusetzen. Orte, an denen die Erfahrung von Abwesenheit und Leere auf den flächendeckend offensichtlichen Bruch im Grenzland verweist, beinhalten das Potential als »storyscape« zu fungieren und ein an den Raum rückgebundenes Erzählen von erinnerungskulturell und sozial bedeutsamen »Geschichten« zu initiieren. Der mögliche Denkmalwert eines Ortes wie Nakléřov als repräsentativer und zugleich singulärer Bestandteil einer historischen Kulturlandschaft besteht in seinem Vermögen, Fragen aufzuwerfen und eine Beschäftigung mit der Geschichte des Ortes im lokalen, regionalen und europäischen Kontext einzuleiten. Das denkmalpflegerische Kriterium der Leistung manifestiert sich nicht im Objekt, sondern im Potential eines bestimmten räumlichen Ausschnitts, erinnerungskulturelle Prozesse und angesichts »umstrittener« oder »geteilter« Objekte und Orte Dialoge in Gang zu setzen.
Ein Ort, dessen historischer und erinnerungskultureller Wert aus dem Spannungsfeld zwischen an- und abwesenden Elementen, zwischen Leerstellen und Relikten resultiert, führt an die Grenzen traditioneller Denkmalbegrifflichkeiten, ist aber auf der Basis der Zusammenschau verschiedener theoretischer und praktischer Ansätze der Denkmalpflege, die unter dem Begriff »unbequeme Kulturlandschaft« zu subsumieren sind, in seiner potentiellen Denkmalwürdigkeit zu diskutieren. Die Grenzen dessen, was Denkmal sein kann, sind zwar seit den 1970er Jahren räumlich, substanziell und ideell durchlässiger geworden, werden aber immer noch von Ansprüchen an die materielle Substanz des Denkmals und an das Denkmal als Zeugnis von Leistung markiert. Auch HUSE sieht in der Bindung der Denkmalpflege »an die materielle Spur« sowohl eine Stärke als auch eine Schwäche: »Wo es diese nicht mehr gibt, kann es auch keine Denkmalpflege mehr geben.« Aber Denkmalpflege kann es auch dort geben, wo die Spur in existentieller Abhängigkeit vom Vorhandensein der sie umgebenden Substanz als interpretationsoffenes Zeitfenster im Raum verstanden wird. Die Spur ist an das Vorhandensein von materieller Substanz gebunden, denn ohne diese wäre die Spur weder präsent noch wahrnehmbar. Spuren sind dergestalt als Ensembles zu begreifen, die aus einer Leerstelle sowie der sie umgebenden, sie hervorbringenden und auf sie verweisenden materiellen Umgebung bestehen.
Für den Denkmalpfleger als Spurenleser stünde somit das sich über das Materielle ausdrückende Spannungsfeld zwischen Absenz und Präsenz im Fokus, das unter den Vorzeichen des Erinnerns und Vergessens für den kulturwissenschaftlichen Erinnerungs- und Gedächtnisdiskurs von Bedeutung ist. Ein umfassender Spurenbegriff wäre dem Substanzbegriff als Korrektiv zur Seite zu stellen, mit dem Potential, auf Abwesenheit als Resultat von destruktiven Einwirkungen hinzuweisen, Fragen auch nach (un)freiwilligen Zeugnissen, Kontexten, Ursachen, Menschen und ihrem Handeln aufzuwerfen, und dabei dennoch den Konnex zum Materiellen halten zu können. Ein Spurenbegriff, der über das Oszillieren der Spur zwischen ästhetischem und historischem Wert hinausgeht, verweisend auf tiefgreifende Verluste und Zerstörungsprozesse, scheint dazu geeignet, die Funktion des Denkmals auch als »Erinnerung an Brüche, Unschönes und Schwieriges, an Niederlagen und Irrwege, aber auch an Alternativen« zu stärken, die denkmalpflegerische Kanonbildung sowie Kernbegriffe der Disziplin wie Substanz und Leistung hinsichtlich ihrer generellen Anwendbarkeit auf die bestehende und potentielle Denkmalwelt zu hinterfragen. Orte und Objekte abseits traditioneller Vorstellungen vom Denkmal erfordern eine Neufokussierung des Substanzbegriffs, um eine komplexere und vielschichtige, auch konfligierende Deutungen zulassende Kultur- und Geschichtsbetrachtung zu ermöglichen. Eine Denkmalpflege als wissenschaftlich verankerte Disziplin, die sich mit ihren vielfältigen materialbasierten und verorteten Medien der Erinnerung, stärker in den fächer- und längst auch grenzübergreifenden Erinnerungsdiskurs einbringen will, braucht zu Beginn des 21. Jh. nach den Verwerfungen des 20. Jh. noch andere Orientierungspunkte, um sich auch in disparaten, auch von Destruktion geprägten Kulturräumen bewegen zu können.
Die Dissertation setzt sich zum Ziel, mittels einer Längs- als auch in einer Querschnittsanalyse die für die 80er und 90er Jahre typischen Erscheinungen von Kunst im öffentlichen Raum in Süddeutschland zu untersuchen und zu bewerten. Sie besteht aus einem allgemeinen, eher theoretisch und systematisch ausgerichteten Teil, in dem die relevanten Fragestellungen in einem größeren historischen Zusammenhang entwickelt werden, sowie einer empirisch ausgerichteten Mikrostudie, um letztere am konkreten Material, also angesichts der realen Handlungen, Entscheidungen und Prozesse in einem typischen Fall zu überprüfen. Im Zentrum steht dabei das im Prozess der Auseinandersetzung mit dem Ort entwickelte Werk (Site Specificity) und seine Präsentationsform innerhalb eines meist thematisch und zeitlich eingegrenzten Projekts, dessen Teilnehmer/Werke von einer Jury ausgewählt und von einem Kurator zur Ausstellung gebündelt und unter seiner Leitung realisiert werden.
Córdoba es la segunda ciudad más poblada de la Argentina, y posee el ejido municipal más extenso del país, siendo un importante centro industrial y de servicios del centro del país. Es además la cabecera de la segunda región metropolitana argentina, el Área Metropolitana de Córdoba (AMCBA). Si bien el desarrollo de sus áreas centrales y periurbanas es un tema bastante desarrollado académicamente, actualmente hay un vacío de conocimiento en la situación actual de las áreas pericentrales e intermedias de esta ciudad -aun cuando ocupan más del 30% del área urbanizada y donde habita la mayor parte de su población-. Es en estas áreas donde se ubica el objeto de estudio de esta tesis: los barrios pericentrales que forman un anillo alrededor del área central. Originados como extensiones suburbanas alrededor de 1940, y consolidados como barrios residenciales de clase media y media alta de baja densidad antes de 1970, ocupan lo que son hoy algunas de las áreas con mejor calidad ambiental y urbana de la ciudad.
Los barrios pericentrales son considerados generalmente consolidados y estables; sin embargo, analizados en detalle, muestran complejas transformaciones: un vaciamiento poblacional constante, a pesar del crecimiento demográfico en general de Córdoba y el AMCBA; aumento de inmuebles abandonados; y a diferencia de sectores en una similar posición, no son objeto de grandes inversiones inmobiliarias de renovación urbana.
Esta situación es invisibilizada, en parte por ser resultado de procesos con poco impacto relativo en la ciudad, y en parte porque estos procesos no están contemplados por los modelos urbanos locales vigentes –basados en la teoría racionalista y determinista de principios del siglo XX-, que conceptualizan a los barrios pericentrales como una “panacea urbana”. Esta tesis puso en disputa estos modelos, partiendo de la discusión sobre un fenómeno informal detectado indefectiblemente (aunque no exclusivamente) en estos barrios pericentrales: la microdensificación emergente.
La imposibilidad de colocar los inmuebles existentes en el mercado hace que los propietarios busquen nuevas formas de valorizar sus propiedades, de facilitar el acceso a la vivienda a sus hijos o de invertir sus ahorros de forma segura, obteniendo una fuente adicional de ingresos: en cada parcela edificada se aumenta la cantidad de unidades funcionales, aprovechando la superficie construible vacante o refuncionalizando las construcciones obsoletas, aunque manteniendo el grano y la escala de intervención respecto al tejido existente. La oferta de hábitat en estos barrios se diversifica, y no sólo evita la expulsión de población, sino que también atrae a nuevos habitantes. Además, en un tejido originalmente sólo residencial, incorpora actividades de comercio y servicios que enriquecen el tejido funcional.
El proceso se realiza sin planificación general (y por supuesto fuera del marco legal): es la suma de acciones individuales que se reconstruyen como una “tendencia” o “patrón emergente”, revitalizando el tejido urbano de forma sutil pero definitiva.
Se planteó como hipótesis que la microdensificación emergente es un proceso de revitalización que aprovecha el potencial del tejido de estos barrios de forma más sostenible y eficiente que el modelo impuesto formalmente.
10
La tesis se encuadró bajo el enfoque sistémico de la complejidad. Este enfoque entiende a la ciudad como un sistema complejo y dinámico, en desarrollo constante; determinado más por las interrelaciones entre sus componentes y entre esos componentes y el contexto, que por las condiciones de cada elemento individualmente. La calidad y cantidad de estas interacciones es primordial, al punto de definir la condición urbana de una aglomeración. Según estas premisas, un sistema urbano sostenible y eficiente será aquel que, maximizando recursos materiales y humanos (y de acuerdo a la capacidad de carga del sistema) desarrolle de redes de intercambio múltiples, diversas y descentralizadas, que generen procesos de sinergia y desarrollo inclusivos.
La investigación se estructuró entonces de forma tal de responder las siguientes preguntas:
•
En primer lugar, ¿cuáles son las condiciones específicas que catalizan la microdensificación en los barrios pericentrales de Córdoba?
•
Siendo la microdensificación una respuesta a una situación particular dentro del sistema urbano, ¿Cuál es el grado de sostenibilidad y eficiencia que aporta a los barrios pericentrales (en particular) y a Córdoba (en general)?
•
Y tras haber identificado su impacto en la estructura urbana, su potencial transformador y organizativo, ¿puede el estudio de los procesos emergentes hacer un aporte conceptual e instrumental a los modelos locales de planeamiento urbano?
Primeramente, un análisis documental reconstruyó la condición específica de los barrios pericentrales, y el escenario actual de Córdoba con respecto a la producción y acceso al hábitat urbano. Luego se infirió un escenario tendencial a corto y mediano plazo, que sirvió para definir distintos patrones de territorialización, incluyendo el patrón “formal” de los barrios pericentrales. Se continuó con el análisis específico de la microdensificación, proponiendo un escenario posible a mediano plazo donde el patrón de microdensificación ha sido plenamente desarrollado, transformando cuali y cuantitativamente el tejido espacio-funcional y socioeconómico.
A partir de estos resultados, se realizó un análisis comparativo de los distintos patrones de desarrollo urbano de Córdoba en cuanto a su sostenibilidad y eficiencia. Se demostró que el patrón de microdensificación en los barrios pericentrales es mucho más sostenible y eficiente que los patrones formales existentes, y se abrió la discusión que se desarrolla en la última parte de esta tesis:
El argumento desarrollado en esta investigación y los resultados que de él se desprenden tienen un carácter analítico y explicativo útil para el análisis de otros escenarios en el contexto urbano argentino y latinoamericano. En primer lugar, sobre preferir la revitalización progresiva frente a la renovación total o la creación de nuevo suelo urbano en la periferia; promover una ciudad compacta, diversa e inclusiva tanto social como funcionalmente; basada en la multiplicación y diversificación de los agentes productores de ciudad; que considera estos procesos, así como los mecanismos de empoderamiento, participación y gobernanza como instrumentos para lograr mayor sostenibilidad y eficiencia en el desarrollo urbano. Por otro lado, esta tesis puso en relevancia el rol de los procesos emergentes en un sistema urbano como mecanismo vital para generar esta revitalización. Finalmente, se discute el aporte del enfoque sistémico para comprender, explicar y proponer intervenciones a la disciplina.
In der Ph.D.-Arbeit wird gefragt, wie verschieden gestaltete Landschaften heute erlebt werden und wie sie auf die Menschen wirken. Dafür wird die Atmosphärentheorie erweitert und auf Landschaften angewendet. Atmosphären sind räumliche Stimmungsqualitäten, geprägt von der Umgebung, welche Menschen beeinflussen. Es wird ein Modell entwickelt, welches die Prägung von Atmosphären auf massiver, mobiler und ephemer Ebene beschreibt. Mit künstlerischen Arbeiten werden Atmosphären verschiedener anthropogener Landschaften übersetzt. Mit der exemplarischen wie theoretischen Bearbeitung von landschaftsverbundenen Atmosphären wird die Korrelation von Menschen und Umgebung nachgewiesen.
Das Langzeittragverhalten von Stützen aus Holz wird entscheidend von der Größe der Dauerlast und dem umgebenden Klima beeinflusst. Im Gegensatz zu Biegeträgern haben diese Effekte auch Einfluss auf den Grenzzustand der Tragfähigkeit und sind unmittelbar Gegenstand von Sicherheitsaspekten. Der Eurocode 5 beachtet dies überhaupt nicht, während in DIN 1052 (2004:08) Hinweise zur Bemessung gegeben sind. Da der Baustoff Holz infolge seines Wuchscharakters stark streuende Materialparameter aufweist, ist es kaum möglich, Experimente in ausreichendem Umfang durchzuführen. Gegen eine solche experimentelle Untersuchung sprechen auch die zu erwartenden hohen Kosten sowie die langandauernden Versuche unter Klimabeanspruchung. Aus diesem Grund wird auf virtuelle Versuche mit Hilfe des Computerprogramms ISOBEAM zurückgegriffen. Dazu sind allerdings abgesicherte Materialmodelle wichtig, die hier an Experimenten mit Klein- und Kleinstproben sowie mit Versuchkörpern baupraktisch relevanter Abmessungen angepasst wurden. Mit diesem verifizierten Modell war es möglich, gezielt Parameterstudien durchzuführen. Der Einfluss der Einbauholzfeuchte auf das hygrothermische Langzeittragverhalten wurde genauso untersucht wie der der Nutzungsklasse und der Querschnittsabmessungen. Die Ergebnisse der virtuellen Versuche dienten zum einen der Überprüfung der Vorgehensweise nach DIN 1052 (2004:08) und zum anderen zur Anpassung neuer Vorschläge zur Bemessung. Es wurde Wert darauf gelegt, dass sich die Vorschläge neuer Bemessungskonzepte an die bestehenden normativen Bemessungsregeln anlehnen. Zum einen wurde das Bemessungsverfahren nach Theorie II. Ordnung um eine weitere Ausmitte zur Berücksichtigung des Kriechens ergänzt, zum anderen wurde beim Ersatzstabverfahren der Beiwert entsprechend modifiziert. Alternativ ist es möglich, den Modifikationsbeiwert neu an die virtuellen Versuchsergebnisse anzupassen. Die Einbauholzfeuchte wurde ebenfalls über einen zusätzlichen Modifikationsfaktor berücksichtigt.
Das Ziel der Arbeit ist, eine mögliche Verbesserung der Güte der Lebensdauervorhersage für Gusseisenwerkstoffe mit Kugelgraphit zu erreichen, wobei die Gießprozesse verschiedener Hersteller berücksichtigt werden.
Im ersten Schritt wurden Probenkörper aus GJS500 und GJS600 von mehreren Gusslieferanten gegossen und daraus Schwingproben erstellt.
Insgesamt wurden Schwingfestigkeitswerte der einzelnen gegossenen Proben sowie der Proben des Bauteils von verschiedenen Gussherstellern weltweit entweder durch direkte Schwingversuche oder durch eine Sammlung von Betriebsfestigkeitsversuchen bestimmt.
Dank der metallografischen Arbeit und Korrelationsanalyse konnten drei wesentliche Parameter zur Bestimmung der lokalen Dauerfestigkeit festgestellt werden: 1. statische Festigkeit, 2. Ferrit- und Perlitanteil der Mikrostrukturen und 3. Kugelgraphitanzahl pro Flächeneinheit.
Basierend auf diesen Erkenntnissen wurde ein neues Festigkeitsverhältnisdiagramm (sogenanntes Sd/Rm-SG-Diagramm) entwickelt.
Diese neue Methodik sollte vor allem ermöglichen, die Bauteildauerfestigkeit auf der Grundlage der gemessenen oder durch eine Gießsimulation vorhersagten lokalen Zugfestigkeitswerte sowie Mikrogefügenstrukturen besser zu prognostizieren.
Mithilfe der Versuche sowie der Gießsimulation ist es gelungen, unterschiedliche Methoden der Lebensdauervorhersage unter Berücksichtigung der Herstellungsprozesse weiterzuentwickeln.
In den letzten Jahrzehnten unterlag der Straßenbetriebsdienst tiefgreifenden Veränderungen. Diese Veränderungen schließt auch die betriebliche Steuerungsphilosophie ein, um eine planungsrationale und ökonomische Gestaltung des Straßenbetriebsdienstes zu unterstützen. Dabei erfolgt eine verbindliche Vorgabe der Leistungsinhalte und -umfänge und ermöglicht eine Budgetierung für das vorgesehene Jahresarbeitsprogramm.
Ziel der Untersuchung ist die Entwicklung eines Modells für die Ermittlung von leistungsbezogenen Musterjahresganglinien zur Unterstützung der Jahresarbeitsplanung. Dafür lagen für jede Leistung des Leistungsbereiches „Grünpflege“ jeweils 260 einzelne Jahresganglinien vor.
Im Ergebnis der Untersuchung wird die leistungsbezogene Musterjahresganglinie in vier Schritten ermittelt. Im ersten Schritt erfolgt die Prüfung der Datenqualität; im zweiten Schritt eine Korrelationsanalyse; im dritten Schritt die fachliche Überprüfung der Leistungsausprägung und im vierten Schritt die Ermittlung der leistungsbezogenen Musterjahresganglinie aus den verbliebenen leistungsbezogenen Jahresganglinien.
Die projektgetriebene Bauwirtschaft wird dominiert durch einen branchenspezifischen Preiswettbewerb. Eine wissenschaftliche Auseinandersetzung mit den Gründen für diesen Preiswettbewerb und den Voraussetzungen für einen Leistungswettbewerb hat bislang kaum stattgefunden. Im Rahmen der vorliegenden Dissertation werden zunächst die bauwirtschaftlichen Besonderheiten hinsichtlich Bauwerk, Bauleistungen und Branchenstruktur, untersucht und die Auswirkung auf den Wettbewerb herausgearbeitet. Ziel einer Strategie des nicht preisbasierten Wettbewerbs muss es demnach insbesondere sein, die Risiken der Transaktion für den Kunden zu minimieren und die Nutzeneinschätzung des Kunden vor dem Kauf zu verbessern. In der vorliegenden Arbeit wird erstmals ein Grundmodell entwickelt, welches sämtliche Treiber eines Leistungswettbewerbs integriert. Grundlage hierfür sind die wirtschaftswissenschaftlichen Theorien der Produktdifferenzierung und der Differenzierungsstrategie aus den Bereichen Volkswirtschaftslehre, Marketing Management und Strategisches Management. Die Bestandteile des Modells auf Projektebene sind Qualität, Zeit und Varietät. Die Treiber auf Unternehmensebene sind Innovation und Marke. Neben den unmittelbaren Treibern des Leistungswettbewerbs wirken sich die Unternehmensstrukturen und Kernkompetenzen, die Zielmarktbestimmung und das Strategische Sourcing mittelbar auf die Performance des Unternehmens aus. Die Wirkungsweise der Treiber und die jeweilige Bedeutung für einen Leistungswettbewerb in der Bauwirtschaft werden im einzelnen dargestellt und erläutert. Die Dissertation stellt eine Grundlagenarbeit zum Thema Wettbewerbsstrategien in der Bauwirtschaft dar. Die Aspekte des Leistungswettbewerbs, in Abgrenzung zum Preiswettbewerb, stehen im Mittelpunkt der Arbeit. Im Zuge der Diskussion der Einzelaspekte wird qualitativ nachgewiesen, dass die Umsetzung einer Strategie des nicht preisbasierten Wettbewerbs in der Bauwirtschaft, einen positiven Einfluss auf die Performance des Unternehmens hat.
This research represents an effort made towards contribute to the critical thinking from an analysis of the hegemonic neoliberal ideology, which supports the idea of the end of history and the technocratic universalism which in turn implies the imposition of a single model of life, denying, in the name of realism and the end of utopias, any other alternative possibility.
This makes it necessary to recover the critical thinking to analyze and understand the reality, thus overcoming the ideological barrier towards claiming that things can be otherwise.
It is clear from this research that the discourse of sustainable development has unquestionably transformed the context and content of political activity in Europe. This discourse has exercised and obvious influence in the Governance processes, mainly because it has contributed to the introduction of a new political field, which was then promoted, either explicitly or implicitly by policy-makers, researchers on the field and practitioners during the last three decades. Though it may be bold to affirm that the discourse of sustainable development is the sole driver of these whole set of changes, there is no doubt that it has played a key part in the way in which the governance priorities have been handled in the European continent.
Die Thesis untersucht am Beispiel von Farb-Licht Forschungen (Interaktion dynamischen Lichts mit farbigen Oberflächen) und der Designforschungen am Potenzial der organisch Licht emittierenden Dioden (OLED) integrierende Aspekte des Designs im Kontext dieser Technologien. Des weiteren reflektiert die Thesis am Beispiel dieser Designforschungen das Verhältnis von Designforschung und Innovation für die gestalterischen Disziplinen.
As human thought was developing, likewise, the technology used for illumination was growing. But a haul through history, reviewing its pages and analyzing it, inherently brings up old and new question, like: Is it possible to alter negatively the image of historic buildings and monuments through inadequate lighting to the degree of distorting the perception that people have of the work? and if so, what are the causes that generate it? Do the light designers take into consideration criteria to protect not only historic buildings and monuments, but also the environment? What are the consequences that may generate the inadequate lighting of urban heritage to the environment? What are the factors to consider for a proper illumination of urban heritage? The answers to these questions will help lay the foundation for proper illumination of the urban heritage, avoiding at the maximum the light pollution and the effects that it generates, seeking a balance and harmonious reconciliation between the technology, urban heritage and environment, taking as a framework and the case study the urban heritage of a city from the colonial era in southern Mexico, with pre-Hispanic roots and where today you can still see through its streets and buildings an atmosphere of mysticism reflection of their folklore and traditions, this city is known as Chiapa de Corzo, Chiapas.
In der vorliegenden Arbeit wird eine kraftschlüssige Verbindungstechnik für modulare, schalenartige Faserverbundbauteile vorgestellt. Die Verbindung basiert auf der Verklebung mit lokal begrenzten Stahlblechen. Aus dem Verbindungsansatz wird die Verklebung zwischen Stahl und Faserverbundkunststoff vertiefend betrachtet. Ziel sind die Wahl von technologischen Randbedingungen, die Erarbeitung eines Vorschlages zur numerischen Berechnung und Bemessung und die Formulierung konstruktiver Empfehlungen zum Entwurf von Verklebungen. Mechanische Kennwerte werden in Zugversuchen ermittelt und direkt auf die nichtlinearen Berechnungen übertragen. Technologische Einflüsse und die Streuungen aus realen Verklebungen werden über die Nachrechnung von Zugscherversuchen in die Bemessung integriert. Es wird gezeigt, dass die Verklebungen ausreichende Festigkeiten und ein zufriedenstellendes Bruchverhalten aufweisen. Die Kombination aus einer Werkstattverklebung und einer baustellengerechten Montage ermöglicht eine materialgerechte und effiziente Verbindungen für Faserverbundkonstruktionen unter den Randbedingungen des Bauwesens.
A fundamental characteristic of human beings is the desire to start learning at the moment of birth. The rather formal learning process that learners have to deal with in school, on vocational training or in university, is currently subject to fundamental changes. The increasing technologization, overall existing mobile devices, the ubiquitous access to digital information, and students being early adaptors of all these technological innovations require reactions on the part of the educational system.
This study examines such a reaction: The use of mobile learning in higher education.
Examining the subject m-learning first requires an investigation of the educational model e-learning. Many universities already established e-learning as one of their educational segments, providing a wide range of methods to support this kind of teaching.
This study includes an empirical acceptance analysis regarding the general learning behavior of students and their approval of e-learning methods. A survey on the approval of m-learning supplements the results.
Mobile learning is characterized by both the mobility of the communication devices and the users. Both factors lead to new correlations, demonstrate the potential of today's mobile devices and the probability to increase the learning performance.
The dissertation addresses these correlations and the use of mobile devices in the context of m-learning. M-learning and the usage of mobile devices not only require a reflection from a technological point of view. In addition to the technical features of such mobile devices, the usability of their applications plays an important role, especially with regard to the limited display size.
For the purpose of evaluating mobile apps and browser-based applications, various analytical methods are suitable.
The concluding heuristic evaluation points out the vulnerability of an established m-learning application, reveals the need for improvement, and shows an approach to rectify the shortcoming.
In the last two decades, many cities have faced changes in their economic basis and therefore adopted an entrepreneurial approach in the municipal administration accompanied by city marketing strategies. Brazilian cities have also adopted this approach, like the case of Florianópolis. Florianópolis has promoted advertising campaigns on the natural resources of the Island of Santa Catarina as well as on its quality of life in comparison to other cities. However, due also to such campaigns, it has experienced a great demographic growth and, consequently, infrastructural and social problems. Nevertheless, it seems to have a good image within the national urban scenario and has been commonly considered an “urban consumption dream” for many Brazilians. This paradoxical situation is the reason why it has been chosen as the research object in this dissertation. Thus, the questions of this research are: is there a gap between the promise and the performance of the city of Florianópolis? If so, can tourists and residents recognize it? And finally, how can this gap be demonstrated? Accordingly, the main objective of this research is to propose a conformity assessment approach applicable to cities, by which the content of city advertisement campaigns can be compared to its performance indicators and satisfaction degree of its consumers. Therefore, this approach is composed by different methods: literature and legislation reviews, semi-structured and structured interviews with experts and inhabitants, an urban centrality development analysis, a qualitative discourse analysis of advertising material (including images), a qualitative content analysis of newspaper reports and a questionnaire survey. Finally, the theses are: yes, there is a gap between promise and performance of Florianópolis; this promise is a result of city marketing campaigns which advertise its natural features and at the same time hiding its urban aspects, supported by some political and private actors, mainly interested in the development of tourism and real estate market in the city; this gap has been already recognized by tourists and more intensively by residents; the selected methods worked as a kind of conformity assessment for cities and tourist destinations; and last but not least, since there is a gap, it designates the practice of “make-up urbanism”. Research limitations are the short time frame covered by this analysis and small and non-representative samples. However, its relevance lies in the attempt to fill in two disciplinary lacunas: a conformity assessment approach for cities and the creation of knowledge about Florianópolis and its further presentation at an international level, on the one hand. On the other hand, the transfer of this approach to other cities would help explaining a (common) contemporary urban phenomenon and appeal for more ethical conduct and transparency in the practices of city marketing.
Diese erste umfassende Monographie über den Architekten, Professor und Museumsmann Manfred Lehmbruck (Paris 1913 – Stuttgart 1992) konzentriert sich neben dem Lebensweg und den theoretischen Arbeiten Lehmbrucks zum Museumsbau auf die drei realisierten Museumsbauten: das Reuchlinhaus Pforzheim, das Wilhelm-Lehmbruck-Museum Duisburg und das Federseemuseum Bad Buchau. Aber auch die drei anderen bedeutenden Gebäudeensembles, die Pausa AG Mössingen, die Berufsschule und das Stadtbad Stuttgart-Feuerbach und der Solitär der Mittelschule in Mössingen, alle fertiggestellt in den Sechziger Jahren des letzten Jahrhunderts, werden ausführlich besprochen. Das umfassende Werkverzeichnis im Anhang zeigt deutlich den Einfluß, den seine Lehrer, allen voran Ludwig Mies van der Rohe, aber auch Heinrich Tessenow, Paul Bonatz und Auguste Perret, auf die Architektursprache Lehmbrucks gehabt haben.
Markennetze
(2003)
Die Arbeit zeigt, dass Markenallianzen oder -netzwerke aus ökonomischer Perspektive analog zu Allianzen in anderen Bereichen des Unternehmens oder strategischen Partner-schaften kompletter Unternehmen betrachtet und analysiert werden können. Auch auf Marken wirken Herausforderungen ein, die sich aus der Globalisierung und Deregulierung von Märkten und verändertem Konsumentenverhalten ergeben. Dies führt dazu, dass eine alleinstehende Marktbearbeitung häufig nicht mehr erfolgversprechend scheint. Marken als Gegenstand von interorganisationalen Kooperationsbeziehungen weisen Be-sonderheiten im Vergleich zu sonstigen Vermögensgegenständen und Unternehmensbereichen auf. Marken übernehmen in Wirtschaft und Gesellschaft wesentlich weitrei-chendere Funktionen als nur das Garantieren von Produktqualität. Eine Marke kann als symbolisch generalisiertes Kommunikationsmedium im Sinne von LUHMANN bzw. als so-ziales Interaktionsmedium im! Sinne von PARSONS definiert werden. Diese Sichtweise er-möglicht es, unterschiedliche Funktionen der Marke für unterschiedliche Nutzer oder Ei-gentümer auch in verschiedenen Märkten und Lebensbereichen in einem schlüssigen Ge-samtzusammenhang darzustellen. Weiterhin wird es durch die ganzheitliche Betrachtung der Marke als Medium möglich, bisher nebeneinander stehende Perspektiven und Defini-tionen von Marken zu integrieren. Die Darstellung der Marke als Medium und die Analyse der medialen Ebenen führt zu einem neuen Dispositiv der Markenführung. So müssen Marken für den Konsumenten mehr Raum zur eigenen Aufladung mit Bedeutung lassen, die symbolische Bedeutung lässt sich nicht direkt und umfassend von Seiten des markenführenden Unternehmens planen. Weiterhin sollten Marken mit unterschiedlichen symbolischen Funktionen unter-schiedlich geführt werden. Bisherige Konzepte der Markenführung differenzieren ihre Empfehlungen jedoch nicht systematisch nach verschiedenen symb! olischen Funktionen der Marke. Dies gilt auch für die Füh! rung von Markennetzen: Je nach den Eigenschaften der beteilig-ten Marken müssen hierfür unterschiedliche Koordinationsmechanismen Anwendung finden. Für die Führung von Markennetzen lassen sich aus den Überlegungen zur Koordi-nation von Unternehmensnetzwerken Empfehlungen ableiten, welche bisherige Leitfäden zur Gestaltung von Markenallianzen nicht nur theoretisch fundieren und wesentlich er-gänzen können, sondern insbesondere auch eine vorwärts gerichtete Analyse anstelle einer simplen Beschreibung der verschiedenen Erscheinungsformen ermöglichen. Diese Arbeit konzeptionalisiert Markennetze als ein Netzwerk von vielschichtigen Principal-Agent-Beziehungen. Die Ausgestaltung von Markennetzen ist folglich ein komplexer Pro-zess. Zudem existieren aufgrund unterschiedlicher Zielsetzungen und Ausgangssituationen der Marken nicht für sämtliche Formen von Markennetzen identische, allgemein gültige Handlungsempfehlungen. Zur Entwicklung des Handlungsrahmens wurde ein Ansatz aus d! er Netzwerktheorie über-nommen, welcher die Koordination von Netzwerken in vier Schritte unterteilt, die „vier basalen Funktionen des Managements“. Diese Funktionen sind die Selektion der Partner, die Allokation von Ressourcen, die Regulation der Beziehungen und schließlich die Evalua-tion der Zusammenarbeit. Die vorliegende Arbeit entwickelt ausgehend von diesen vier Funktionen einen kompletten Bezugsrahmen zur Ausgestaltung von Markennetzen.
Stapelprobleme treten in der Praxis in vielfältiger Form auf. So finden sich Stapelprobleme in einer großen Fülle von Variationen im Logistikbereich, aber auch im Bauwesen. Zunächst wird das klassische Turm von Hanoi Problem kurz vorgestellt. Dieses Problem wird als Stapelproblem formuliert. Weiterhin werden verzweigte Stapelproblem untersucht: Ein gegebener Stapel -- bestehend aus den Elementen v der Menge V -- soll an anderer Stelle in einer vorgeschriebenen, veränderten Struktur wieder aufgebaut werden. Dazu stehen Hilfsstapelplätze zur Verfügung. Die Optimierung dieses Problems hinsichtlich der Anzahl der benötigten Hilfsstapelplätze ist NP-vollständig. Es werden Erfahrungen mit einem Branch-and-Bound Algorithmus zur Lösung des Problems vorgestellt sowie ein heuristischer Algorithmus diskutiert. Schließlich werden verzweigte Stapelprobleme betrachtet, bei denen keine eineindeutige Zuordnung mehr von Elementen des Ausgangsstapels zu verfügbaren Positionen im Zielstapel existiert. Hier ist schon die Bestimmung einer günstigsten Zuordnung in bezug auf die Anzahl benötigter Hilfsstapelplätze NP-schwer.