Filtern
Dokumenttyp
- Artikel (Wissenschaftlicher) (35)
- Dissertation (20)
- Buch (Monographie) (6)
- Bachelorarbeit (3)
- Konferenzveröffentlichung (3)
- Periodikum (2)
- Arbeitspapier (1)
Institut
- Institut für Strukturmechanik (ISM) (18)
- Professur Stochastik und Optimierung (11)
- Junior-Professur Computational Architecture (7)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (6)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (6)
- F. A. Finger-Institut für Baustoffkunde (FIB) (5)
- Professur Denkmalpflege und Baugeschichte (4)
- An-Institute (2)
- Materialforschungs- und -prüfanstalt an der Bauhaus-Universität (2)
- Professur Baubetrieb und Bauverfahren (2)
- Professur Baumanagement und Bauwirtschaft (2)
- Professur Informatik im Bauwesen (2)
- Professur Tragwerkslehre (2)
- Professur Verkehrsplanung und Verkehrstechnik (2)
- Dozentur Film- und Medienwissenschaft (1)
- Internationales Kolleg für Kulturtechnikforschung und Medienphilosophie (IKKM) (1)
- Juniorprofessur Urban Energy Systems (1)
- Professur Bauformenlehre (1)
- Professur Biotechnologie in der Ressourcenwirtschaft (1)
- Professur Content Management und Webtechnologien (1)
- Professur Grundbau (1)
- Professur Informatik in der Architektur (1)
- Professur Medienmanagement (1)
- Professur Systeme der Virtuellen Realität (1)
- Professur Verkehrssystemplanung (1)
- Universitätsbibliothek (1)
Schlagworte
- Angewandte Mathematik (11)
- Stochastik (11)
- Strukturmechanik (11)
- Architektur (2)
- BIM (2)
- Building Information Modeling (2)
- Controlling (2)
- Entscheidungsunterstützung (2)
- Erdbau (2)
- Film (2)
Erscheinungsjahr
- 2016 (70) (entfernen)
In Zeiten volatiler Immobilienmärkte und einer hohen Wettbewerbsintensität sind leistungsfähige Systeme der Analyse und Entscheidungsunterstützung unverzichtbar. Entscheidungen zu Investitionsstrategien und Einzelinvestitionen basieren zumeist auf mehreren entscheidungsrelevanten Kriterien. Unterschiedliche immobilienwirtschaftliche Entscheidungsalternativen können dabei durchaus Kriterienausprägungen aufweisen, die eine bestimmte Alternative nicht als stets besser bzw. stets schlechter ausweisen. Klassische finanzwirtschaftliche Modelle oder verbreitete qualitative Verfahren wie das Scoring können die gegebene Komplexität meist nicht angemessen berücksichtigen. Eine Weiterentwicklung immobilienwirtschaftlicher Entscheidungsmodelle ist durch die Übertragung und Spezifizierung multikriterieller Verfahren der Entscheidungsunterstützung möglich. Speziell die Untergruppe des Outranking beschäftigt sich mit der schrittweisen Strukturierung, Ordnung und Priorisierung von komplexen Auswahlalternativen. Als spezifische immobilienwirtschaftliche Fragestellung dient hier die Auswahl und Priorisierung von Zielmärkten im taktischen Portfoliomanagement eines institutionellen Immobilienportfoliosmit internationaler Ausrichtung. Die Formalisierung des Entscheidungsproblems „Priorisierung von Zielmärkten“ erfolgt mit dem ELECTRE-Verfahren.
Die Dissertation über „Ambiguität im zeitgenössischen Film – Flugversuche“ folgt der Spur einer populären narrativen Tendenz im Kino – nämlich der Mehrdeutigkeit – und zeichnet ihr dramaturgisches Potential, wie ihre ethischen (bzw. mikropolitischen) Implikationen nach. Um typische Muster in der Wahrnehmung mehrdeutiger Filmerzählungen zu beschreiben, die bereits auf der vorbewussten Ebene der Affekte wirksam sind, greife ich auf Begriffe der Prozessphilosophie Alfred North Whitehead’s zurück und auf ihre neueren Reformulierungen bei Gilles Deleuze und Brian Massumi. Ausgehend von Alejandro González Iñárritu’s "Babel" (2006) begibt sich der Leser im ersten Teil auf einen virtuellen Rundflug durch ausgewählte Filmbeispiele mit einem kulturellen Ankerpunkt im heutigen Japan. Im zweiten Teil beschreibe und reflektiere ich mein methodisches Vorgehen in den ersten Phasen der Stoffentwicklung zu einem suggestiven Spielfilmprojekt, und kontextualisiere es mit Interviews zeitgenössischer Autorenfilmer, die ähnliche Erzählweisen entwickeln.
Previous publications about biochar in anaerobic digestion show encouraging results with regard to increased biogas yields. This work investigates such effects in a solid-state fermentation of bio-waste. Unlike in previous trials, the influence of biochar is tested with a setup that simulates an industrial-scale biogas plant. Both the biogas and the methane yield increased around 5% with a biochar addition of 5%-based on organic dry matter biochar to bio-waste. An addition of 10% increased the yield by around 3%. While scaling effects prohibit a simple transfer of the results to industrial-scale plants, and although the certainty of the results is reduced by the heterogeneity of the bio-waste, further research in this direction seems promising.
In vielen öffentlichen Gebäuden besteht ein hohes wirtschaftliches Einsparpotenzial bei den relevanten Energieträgern Wärme und Strom. Projekte zur energetischen Optimierungen refinanzieren sich häufig nach wenigen Jahren. Die notwenigen Investitionsmittel stehen jedoch nur begrenzt zur Verfügung. Zielgerichtete Analysen und Potenzialschätzungen sind erforderlich, um eine Priorisierung optionaler Maßnahmen zu erreichen. Die Studie zeigt anhand eines öffentlichen Portfolios notwendige Untersuchungsschritte auf. Die Einzelpotenziale werden über geeignete Benchmarks ermittelt. Auf Portfolioebene werden u. a. spezifische Potenzial-Matrizen genutzt. Die kennzahlenbasierte Priorisierung von Maßnahmen ist umso wichtiger, je stärker das Potenzial auf wenige Objekte konzentriert ist.
Diese Veröffentlichung dokumentiert über einen Zeitraum von 50 Jahren die an unserer Hochschule entstandenen Dissertationen, deren Zahl sich auf 1100 beläuft. Damit werden ein wichtiger Teil der Hochschulgeschichte Weimars und zugleich ein Teil der Hochschulgeschichte der DDR aufgearbeitet. Die Bibliographie liefert Bausteine für eine Geschichte der Disziplinen und Fakultäten an der Weimarer Hochschule und darüber hinaus für eine Sozialgeschichte der Wissenschaftler in Thüringen. So hat z. B. eine Vielzahl der heute in leitender Stellung an der Universität Tätigen – sowohl Professoren als auch Mitarbeiter der Universitätsverwaltung – in Weimar promoviert. Das lässt sich auch ausdehnen auf Personen in führenden wissenschaftlichen, politischen oder wirtschaftlichen Positionen in der Region oder im Ort. Hier könnte die vorliegende Bibliographie Anstoß für weitere Forschungen geben.
Urban and building energy simulation models are usually driven by typical meteorological year (TMY) weather data often in a TMY2 or EPW format. However, the locations where these historical datasets were collected (usually airports) generally do not represent the local, site specific micro-climates that cities develop. In this paper, a humid sub-tropical climate context has been considered. An idealised “urban unit model” of 250 m radius is being presented as a method of adapting commonly available weather data files to the local micro-climate. This idealised “urban unit model” is based on the main thermal and morphological characteristics of nine sites with residential/institutional (university) use in Hangzhou, China. The area of the urban unit was determined by the region of influence on the air temperature signal at the centre of the unit. Air temperature and relative humidity were monitored and the characteristics of the surroundings assessed (eg green-space, blue-space, built form). The “urban unit model” was then implemented into micro-climatic simulations using a Computational Fluid Dynamics – Surface Energy Balance analysis tool (ENVI-met, Version 4). The “urban unit model” approach used here in the simulations delivered results with performance evaluation indices comparable to previously published work (for air temperature; RMSE <1, index of agreement d > 0.9). The micro-climatic simulation results were then used to adapt the air temperature and relative humidity of the TMY file for Hangzhou to represent the local, site specific morphology under three different weather forcing cases, (ie cloudy/rainy weather (Group 1), clear sky, average weather conditions (Group 2) and clear sky, hot weather (Group 3)). Following model validation, two scenarios (domestic and non-domestic building use) were developed to assess building heating and cooling loads against the business as usual case of using typical meteorological year data files. The final “urban weather projections” obtained from the simulations with the “urban unit model” were used to compare the degree days amongst the reference TMY file, the TMY file with a bulk UHI offset and the TMY file adapted for the site-specific micro-climate (TMY-UWP). The comparison shows that Heating Degree Days (HDD) of the TMY file (1598 days) decreased by 6 % in the “TMY + UHI” case and 13 % in the “TMY-UWP” case showing that the local specific micro-climate is attributed with an additional 7 % (ie from 6 to 13 %) reduction in relation to the bulk UHI effect in the city. The Cooling Degree Days (CDD) from the “TMY + UHI” file are 17 % more than the reference TMY (207 days) and the use of the “TMY-UWP” file results to an additional 14 % increase in comparison with the “TMY + UHI” file (ie from 17 to 31 %). This difference between the TMY-UWP and the TMY + UHI files is a reflection of the thermal characteristics of the specific urban morphology of the studied sites compared to the wider city. A dynamic thermal simulation tool (TRNSYS) was used to calculate the heating and cooling load demand change in a domestic and a non-domestic building scenario. The heating and cooling loads calculated with the adapted TMY-UWP file show that in both scenarios there is an increase by approximately 20 % of the cooling load and a 20 % decrease of the heating load. If typical COP values for a reversible air-conditioning system are 2.0 for heating and 3.5 for cooling then the total electricity consumption estimated with the use of the “urbanised” TMY-UWP file will be decreased by 11 % in comparison with the “business as usual” (ie reference TMY) case. Overall, it was found that the proposed method is appropriate for urban and building energy performance simulations in humid sub-tropical climate cities such as Hangzhou, addressing some of the shortfalls of current simulation weather data sets such as the TMY.
Purpose of this study is to evaluate safety impact of the deceleration lane at the Upstream Zone of at-grade U-turns on 4-lane divided Thai highways. A substantial speed reduction is required by vehicles for diverging and making U-turn, and the deceleration lanes are provided for this purpose. These lanes are also providing a storage space for the U-turning vehicles to avoid unnecessary blockage of through lanes and reduce the potential of rear-end collisions. The safety at the U-turn is greatly influenced by the proper or improper use of the deceleration lanes. Subject to their length, full or partial speed adjustment can occur within the deceleration lane also the road users’ behavior is influenced. To assess the safety impact, the four groups of U-turns with the varying length of deceleration lanes were identified. Owing to limitation of availability and reliability of road crash data in Thailand, widely accepted Traffic Conflict Technique (TCT) was used as an alternative and proactive methodology. The U-turns’ geometric data, traffic conflicts and volume data were recorded in the field at 8 locations, 8 hours per location. Severity Conflict Rate (SCR) was assessed by applying a weighing factor (based on the severity grades according to the Czech TCT) to the observed conflicts related to the conflicting traffic volumes. A comparative higher value of SCR represents a lower level of safety. According to the results, increase in the functional length of the deceleration lane yields a lower value of SCR and a higher level of the road safety.
To assess the safety impact of auxiliary lanes at downstream locations of U-turns, the Traffic Conflict Technique was used. On the basis of the installed components at those locations, four types of U-turns were identified: those without any auxiliary lane, those with an acceleration lane, those with outer widening, and those with both an acceleration lane and outer widening. The available crash data is unreliable, therefore to assess the level of road safety, Conflict Indexes were formulated to put more emphasis on severe crashes than on slight ones by using two types of weighting coefficients. The first coefficient was based on the subjective assessment of the seriousness of the conflict situation and the second was based on the relative speed and angle between conflicting streams. A comparatively higher Conflict Index value represents a lower level of road safety. According to the results, a lower level of road safety occurs if two components apply or if a location is without any auxiliary lane. The highest level of road safety occurs if the layout includes only a single component, either an acceleration lane or outer widening.
In this work different fibre optic sensors for the structural health monitoring of civil engineering structures are reported. A fibre optic crack sensor and two different fibre optic moisture sensors have been designed to detect the moisture ingress in concrete based building structures. Moreover, the degeneration of the mechanical properties of optical glass fibre sensors and hence their long-term stability and reliability due to the mechanical and chemical impact of the concrete environment is discussed as well as the advantage of applying a fibre optic sensor system for the structural health monitoring of sewerage tunnels is demonstrated.
Inhaltliche Struktur:
Theoretischer Teil: Um Kulturtechniken des künstlerischen Ausdruckes, und damit den Bezug zwischen Kunst und Medientechnologie zu ergründen, wurde das Verhältnis zwischen dem Betrachter und dem Betrachteten erforscht. Begriffe wie Originalität, Repräsentation, Imitation sowie Aneignung und Rezeption kommen an historischen Beispielen zur Diskussion.
Praktischer Teil: Mit zwei Ausstellungen (Malerei, Installation) wurden verschiedene Modelle des Sehens problematisiert, um kulturelle und historische Variablen zu ermitteln, die visuelle Kultur begründen. Außerdem wurden die Unterschiede zwischen Beobachter und Betrachter/Zuschauer in Ausstellungssituationen hinterfragt.
Kurzfassung:
Medientechnologie hat sich selbst zu einer Kunstform entwickelt. Sie kann Künstler dabei unterstützen, ihre Ideen handwerklich umzusetzen (Beispiel: Camera Obscura) und zu reflektieren. Dabei geht es um mehr als um technische Hilfmittel für den künstlerischen Ausdruck. Wird die Beziehung zwischen Betrachter und Betrachtetem als eine Transaktion gesehen, in der beide Begriffe gleichermaßen aufs Spiel gesetzt werden, dann ist es notwendig eine Visualität zu bestimmen, an der der Betrachter (im Sinne von Jonathan Crary) aktiv teilnimmt. Das Sehen darf nicht als absolute Erfahrung verstanden werden, denn einzeln analysiert – ohne Einbeziehung anderer Sinneswahrnehmungen und deren mediale Erweiterungen – führt es zu keinem adäquaten Verständnis davon, wie Bedeutungen produziert werden. Daraus ergibt sich die Forschungsfrage, wie die künstlerische Reaktion auf die im 19. Jahrhundert aufstrebenden Fotografie die Ausdrucksformen beeinflusste und ob sich die gegenseitige Abhängigkeit von Malerei und Fotografie wissenschaftlich-künstlerisch rekonstruieren lässt.
Die theoretische Referenz für diese Forschung bildeten Theorieansätze nicht der Kunstgeschichte, sondern der „Visual Culture Studies“, konkret: Martin Jay („Scopic Regimes of Modernity“), Jonathan Crary („Techniques of the Observer“) und Rosalind Krauss („Originality“).
Dazu wurde die Rezeption der aufkommenden Fotografie in der künstlerischen Produktion beispielhaft untersucht, wobei mit Eugène Delacroix, Gustave Caillebotte sowie dem künstlerischen Dialog zwischen Henri Matisse und Brassai die Problematik herausgearbeitet wurde, mit der sich die bildende Kunst im Lauf jener Jahrzehnte, in denen die Fotografie sich etabliert hat, konfrontiert sah. Sie war eine medientechnische Neuheit mit älteren Wurzeln und diente der Malerei als Hilfsmittel (Camera Obscura) und hat durch ihr technische Potenzial dennoch das Verständnis von Kunst radikal verändert: sie löste das Ideal einer bestimmten Maltechnik ab, die sich mit dem Verbergen des Pinselstriches verband, und bedeutete in diesem gewissen Sinn das „Ende der Kunst“ (nach Paul Delaroche).
Bis in die heutige Kunstproduktion zieht sich die Frage, was nach dem Ende der Perfektionierung von Reproduktion durch ihre Übernahme mittels medientechnischer Apparatur, die nun selbst zum Ausdruck strebt, überhaupt noch ein „Kunstwerk“ ist oder sein kann. Technisch gestützte Formen der Aneignung und Imitation stellen das klassische Wertemodell der meisterlich ausgeführten Repräsentation von Wirklichkeit in Frage, obwohl „Originalität“ angesichts der Flut von Reproduktionen doch immer noch - oder gerade deswegen - eine Wertschätzung erfährt.
Daher wurden dann auch im künstlerischen Teil verschiedene Modelle des Sehens getestet, um kulturelle und historische Variablen zu ermitteln, die visuelle Kultur beeinflussen und festlegen. Dabei wurde vor allem auch die Rolle der Beobachter reflektiert - die anders als bei Unterhaltungsmedien - in Kunstkontexten eben keine passiven Zuschauer sind. Was den Künstler, und was den Betrachter von Kunst definiert, lässt sich gleichwohl weder auf ein bestimmte Sinnlichkeit noch eine bestimmte Medientechnologie reduzieren.
Wie schon nach dem Aufkommen der Fotografie werden Künstler weiterhin auf der Suche nach neuen Ausdrucksformen sein, um andere Weltwahrnehmungen und neue, andere Perspektiven menschlicher Existenz zu erlangen. Mediale Technologien haben sie dabei immer schon unterstützt. Aus meiner Untersuchung schließe ich, dass neue Technologien Kunst nicht definitv beeinflussen, wohl aber ihren Entstehungsprozess verändern und beeinflussen können. Die Frage, wie das geschieht und welche Effekte es zeitigt, bedarf einer stets erneuerten Verhandlung.
Daraus folgt die Schlussfolgerung, dass man von Künstlern verlangen kann oder sogar muss, sich vor der Wirklichkeit der Technologie nicht zurückzuziehen, sondern sich medientechnische Kompetenzen anzueignen und sich aktiv am Diskurs um neue Technologien zu beteiligen.
Der Bedarf an leistungsfähigen Hochgeschwindigkeits-Glasfasernetzen ist in den letzten Jahren, insbesondere aufgrund der zunehmenden Nutzung von Internet-basierten Diensten, rapide gestiegen. Eine umfassende Planung von neu zu errichtenden Glasfasernetzen im Sinne eines kostengünstigen Breitbandausbaus ist jedoch häufig mit hohem Aufwand verbunden. Die Auswahl möglicher Kabelwege und die anschließende Kalkulation der Installationskosten werden heute in der Regel durch computerbasierte Verfahren unterstützt, wobei allerdings die Installationspläne und die Installationskosten getrennt voneinander dargestellt werden, was wiederum die computergestützte Planung sowie weitere Optimierungsansätze erschwert. Dieses Arbeitspapier beschreibt ein Konzept für ein modulares Softwaresystem zur computergestützten Planung, Kostenkalkulation und Visualisierung von Glasfasernetzen, das eine integrierte Darstellung von Installationsplänen und Installationskosten ermöglicht. Anstelle der herkömmlichen Darstellung von Installationsplänen, die in der Regel alle geplanten Kabelwege einfarbig auf einer Landkarte visualisiert, wird ein Farbschema zur Anzeige der Installationskosten in Installationsplänen eingesetzt. Das Konzept wird prototypisch implementiert und durch ein Anwendungsbeispiel, das die Planung eines Glasfasernetzes innerhalb eines Siedlungsgebietes behandelt, validiert. Die integrierte, farbige Darstellung der Installationskosten in Installationsplänen ermöglicht eine effiziente Identifikation der kostenintensiven Bauabschnitte und befördert kostenoptimierte Planungsansätze. Die intuitive Visualisierung vereinfacht somit die akkurate und kostenoptimierte Planung von Glasfasernetzen.
Die Ph.D.-Arbeit Soziales Grafikdesign – eine Frage der Haltung hinterfragt den Einfluss und die Wirkungsmacht, den visuelle Kommunikationsgestaltung auf den Betrachter und im weiteren Sinne auf die Gesellschaft im Ganzen haben können. Aufbauend auf den Erkenntnissen über die Wirkungsmacht wird untersucht, wie eine bewusste und sozial verantwortliche Haltung im Grafikdesign aussehen könnte.
Viele Grafikdesigner sind in der Werbebranche tätig und haben den Auftrag, ganz bewusst manipulativ und wirkungsstark Informationen visuell zu übersetzen, um den Betrachter zu einer Handlungsfolge zu animieren. Die bewusste Reflexion der eigenen Rolle als Designer in diesem Prozess führt immer wieder zu den Fragen nach der Verantwortlichkeit des Gestalters und auch dazu, wie der Gestalter die Potenziale der Kommunikationsgestaltung in anderen Bereichen, wie z. B. in städtischen Problemsituationen, für ein soziales Miteinander einsetzen kann.
Looking at our face in a mirror is one of the strongest phenomenological experiences of the Self in which we need to identify the face as reflected in the mirror as belonging to us. Recent behavioral and neuroimaging studies reported that self-face identification not only relies upon visual-mnemonic representation of ones own face but also upon continuous updating and integration of visuo-tactile signals. Therefore, bodily self-consciousness plays a major role in self-face identification, with respect to interplay between unisensory and multisensory processing. However, if previous studies demonstrated that the integration of multisensory body-related signals contributes to the visual processing of ones own face, there is so far no data regarding how self-face identification, inversely, contributes to bodily self-consciousness. In the present study, we tested whether selfother face identification impacts either the egocentered or heterocentered visuo-spatial mechanisms that are core processes of bodily self-consciousness and sustain selfother distinction. For that, we developed a new paradigm, named Double Mirror. This paradigm, consisting of a semi-transparent double mirror and computer-controlled Light Emitting Diodes, elicits selfother face merging illusory effect in ecologically more valid conditions, i.e., when participants are physically facing each other and interacting. Self-face identification was manipulated by exposing pairs of participants to an Interpersonal Visual Stimulation in which the reflection of their faces merged in the mirror. Participants simultaneously performed visuo-spatial and mental own-body transformation tasks centered on their own face (egocentered) or the face of their partner (heterocentered) in the pre- and post-stimulation phase. We show that selfother face identification altered the egocentered visuo-spatial mechanisms. Heterocentered coding was preserved. Our data suggest that changes in self-face identification induced a bottom-up conflict between the current visual representation and the stored mnemonic representation of ones own face which, in turn, top-down impacted bodily self-consciousness.
In this study, the behavior of a widely graded soil prone to suffusion and necessity of homogeneity quantifi cation for such a soil in internal stability considerations are discussed. With the help of suffusion tests, the dependency of the particle washout to homogeneity of sample is shown. The validity of the great infl uence of homogeneity on suffusion processes by the presentation of arguments and evidences are established. It is emphasized that the internal stability of a widely graded soil cannot be directly correlated to the common geotechnical parameters such as dry density or permeability. The initiation and propagation of the suffusion processes are clearly a particle scale phenomenon, so the homogeneity of particle assemblies (micro-scale) has a decisive effect on particle rearrangement and washout processes. It is addressed that the guidelines for assessing internal stability lack a fundamental, scientifi c basis for quantifi cation of homogeneity. The observation of the segregation processes within the sample in an ascending layered order (for downwards fl ow) inspired the author to propose a new packing model for granular materials which are prone to internally instability.
It is shown that the particle arrangement, especially the arrangement of soil skeleton particles or the so-called primary fabric has the main role in suffusiv processes. Therefore, an experimental approach for identifi cation of the skeleton in the soil matrix is proposed. 3D models of Sequential Fill Tests using Discrete Element Method (DEM) and 3D models of granular packings for relative, stochastically and ideal homogeneous particle assemblies were generated, and simulations have been carried out.
Based on the numerical investigations and in dependency on the soil skeleton behavior, an approach for measurement of relevant scale, the so-called Representative Elementary Volume (REV) for homogeneity investigation is proposed. The development of a new testing method for quantifi cation of homogeneity is introduced (in-situ). An approach for quantifi cation of homogeneity in numerically or experimentally generated packings (samples) based on image processing method of MATLAB has been introduced. A generalized experimental method for assessment of internal stability for widely graded soils with dominant coarse matrix is developed, and a new suffusion criterion based on ideal homogeneous internally stable granular packing is designed.
My research emphasizes that in a widely graded soils with dominant coarse matrix, the soil fractions with diameters bigger than D60 build essentially the soil skeleton. The mass and spatial distribution of these fractions governs the internal stability, and the mass and distribution of the fi ll fractions are a secondary matter. For such a soil, the homogeneity of the skeleton must be cautiously measured and verified.
Alles Heritage?
(2016)
Die Erweiterung des Denkmalbegriffs hat zu einer Expansion des Erinnerns, Schützens, Bewahrens und Tradierens auf alle Bereiche des Lebens geführt. Heute werden nicht nur Scheunen, Tankstellen und Großwohnsiedlungen als Teil des historischen Erbes unter Denkmalschutz gestellt, sondern auch kulturelle Praktiken und Bräuche zum „immateriellen“ Weltkulturerbe erklärt. Die Folge dieser als „Denkmal-Inflation“ kritisierten Entwicklung ist eine verschärfte Konkurrenz um Aufmerksamkeit und finanzielle Zuwendungen. Letzteres spiegelt sich nicht zuletzt in einer zunehmenden, maßgeblich von der Tourismusindustrie geförderten publikumswirksamen Inszenierung des Erbes.
Im Zeitalter der „Heritage Industry“ (Robert Hewison, 1987) bilden Kulturgüter aber nicht nur einen wichtigen Standortfaktor, sondern wird das „Erbe“ selbst zunehmend mittels internationaler Charten, Deklarationen, Plaketten und Social Media-Kampagnen konstruiert. Dies geschieht vorwiegend innerhalb eines anglophonen Diskurses, der aber an die deutschsprachigen begriffs- und ideengeschichtlich geprägten Diskussionen strenggenommen nicht anschlussfähig ist. Dort lässt sich ein – in einem ähnlichen Sinne umfassend zu nennender – Erbe-Begriff zwar bereits für die Heimatschutzbewegung konstatieren, eine fachlich ausdifferenzierte Denkmalpflege, wie wir sie heute
kennen, tut sich jedoch schwer, ein solches universelles Konzept zu integrieren. Während die „Heritagisierung“ durch internationale Organisationen zu einer Verschiebung des Fokus von Baudenkmalen hin zur allgemeinen Bewahrung von Kulturerbe führt (das immaterielle eingeschlossen, siehe etwa die Burra Charter), bleibt der Denkmal- und Erbe-Diskurs in den deutschsprachigen Ländern bislang klar auf Baudenkmale und städtebauliche Ensembles konzentriert. Letzteres zeigt sich auch im Vorfeld des European Cultural Heritage Year 2018, das in Deutschland im Gegensatz zu anderen europäischen Ländern maßgeblich von Denkmalschutzorganisationen getragen wird.
Die Wende hin zum Heritage lässt sich gleichermaßen bei neuen Forschungsfeldern und Ausbildungswegen der Denkmalpflege beobachten. So werden heute „Heritage Tourism“ und „Dark Heritage“ als spezifische Formen der „Denkmalnutzung“ untersucht und bilden – in Ergänzung zu den klassischen Disziplinen Kunstgeschichte, Architektur und Planung – „Heritage Management“ und „Heritage Studies“ grundständige Studiengänge. Letzteres gilt inzwischen auch für die deutschsprachigen Länder. Der Weg führt damit weg von der spezialisierten Kennerschaft zum Allrounder mit neuen Schwerpunkten auf Marketing, Verwaltung und Vermittlung. Mit Blick auf sozio-kulturelle Entwicklungen erweist sich, dass der Heritage-Begriff vor allem im ökonomischen und politischen Diskurs weitgehend affirmativ gebraucht wird. Heritage geht demnach mit einem gewissen moralischen wie missionarischen Impetus einher, verbunden mit einer (Kultur-)Politik der „Identitätsstiftung“. In Zeiten, in denen „Identität“ wieder als politisches Schlagwort im gesellschaftlichen Diskurs fungiert, scheint es um so wichtiger, die wissenschaftliche Beschäftigung mit Heritage, die zugrunde liegenden begrifflichen Konzepte und präskriptiven Programme, kritisch zu reflektieren.
Egypt is a nation of 4000 years of civilization, which was known for its ancient architecture that occupied the highest rank of importance, but how long will our neglected heritage sites survive in our recent era? This is a rising debate. This paper is based on a hypothesis whether the conservation of the neglected or isolated heritage sites, particularly in the inhabited areas, can bind the citizens to their past. For this reason, the research provides scenes of many applied conservation practices in other countries. The study calls for developing a new applied approach of conservation that takes the interaction between citizens and the city heritage zones into consideration.
Jede Baumaßnahme ist durch einen Unikatcharakter geprägt. Individuelle Planung, Vergabe und Bauvorgänge stellen immer wieder aufs Neue eine große Herausforderung dar. Durch die sich teilweise sehr schnell ändernden Randbedingungen, müssen erarbeitete Abläufe häufig schnell geändert werden. Dies geschieht heutzutage meist auf Grundlage von Erfahrungen der am Bau Beteiligten. Auch bei bester Planung und Vorbereitung können Unwägbarkeiten den Bauprozess aufhalten. Das können ungeeigneter Baugrund, verschiedenste Hinderungen im Baufeld, schlechte Witterungsverhältnisse, Ausfälle von Maschinen, veränderte Zielsetzungen des Auftraggebers und vieles mehr sein. Dies führt zu Bauzeitverlängerungen und damit zu Kostensteigerungen.
Um diesen Problemen besser begegnen zu können und diesen komplexen und fehler-anfälligen Prozess zu unterstützen, sind ein verbesserter Informationsfluss, genauere Boden-aufschlüsse und eine exaktere Dimensionierung des einzusetzenden Gerätes notwendig.
Aus diesen Gründen ist der Einsatz von Building Information Modeling (BIM) sinnvoll. BIM bietet die Möglichkeit den Informationsfluss zu verbessern, die Datengenauigkeit zu erhöhen und Abläufe zu optimieren. Außerdem ermöglicht die Anwendung Planungsschritte miteinander zu verknüpfen, Kalkulationen zu vereinfachen und das Erstellen eines intelligenten Modells, das über den gesamten Lebenszyklus erweitert werden kann.
Die Maßnahmen des Spezialtiefbaus zählen zu den kostenintensivsten auf einer Baustelle. Großes Gerät und spezialisierte Firmen sind für eine erfolgreiche Durchführung unerlässlich. Da der Baugrund immer einen großen Unsicherheitsfaktor bildet, müssen geeignete, unterstützende Anwendungen zum Einsatz kommen. Hierfür bildet BIM eine geeignete Plattform. Protokolle, Maschinendaten und Kontrolldaten können hier webbasiert analysiert und für alle zugänglich gemacht werden, um zum einen die Transparenz zu steigern und zum anderen den Überblick, selbst bei hochkomplexen Bauvorhaben zu behalten.
In dieser Arbeit soll ein Überblick über die aktuelle Forschungssituation im Bereich Building Information Modeling im Erdbau, speziell im Spezialtiefbau, gegeben werden. Die Ergebnisse die mit Hilfe vorhandener Publikationen und Forschungsarbeiten verschiedener Universitäten und namhafter Forschungsgruppen zusammengetragen wurden sollen eine Grundlage für die weitere Forschung in diesem Bereich bilden. Über die Aufgabenstellung hinaus wird zusätzlich mit dem Softwareprogramm Revit 2014 ein Modell erstellt. Es wird versucht eine überschnittene Bohrpfahlwand zu modellieren und sie mit Parametern auszustatten. Zusammenfassend wird das Programm für den Einsatz bewertet.
Die meisten Baustellen bieten Optimierungspotential. Vor allem der Erdbau fordert durch seine hohe Dynamik und großen Unsicherheiten eine hohe Planungsleistung für jedes neue Projekt. Doch auch bei bester Planung und Vorbereitung kann der Bauprozess durch nicht vorhersehbare Einwirkungen aufgehalten werden. Dazu zählen Witterungseinflüsse, Baumaschinenausfälle, unvorhergesehene Bodenschichten und veränderte Zielsetzungen des Auftraggebers. Dies kann zu Störungen im Bauablauf führen, die eine Bauzeitverzögerung und eine Kostensteigerung nach sich ziehen. Um diese Probleme zu umgehen, sind ein verbesserter Informationsfluss, genaue Bodenaufschlüsse und eine exakte Dimensionierung des einzusetzenden Gerätes notwendig.
Hier kann Building Information Modeling (BIM) zum Einsatz kommen. Diese Anwendung bietet die Möglichkeit, die Datengenauigkeit zu erhöhen, den Informationsfluss auf der Baustelle zu verbessern, eine Informationsplattform für alle Beteiligten zu schaffen und die Abläufe transparent zu gestalten. Außerdem ermöglicht die Anwendung Planungsschritte miteinander zu verknüpfen, Kalkulationen zu vereinfachen und das Erstellen eines intelligenten Modells, das über den gesamten Lebenszyklus erweitert werden kann.
Die Grundlagen dieser Arbeit bilden die Begriffsdefinitionen zu Erdbau, Tiefbau und Building Information Modeling. Diese Arbeit setzt sich speziell mit Erdbauwerken und deren Sicherungsmaßnahmen auseinander. Darauf aufbauend wird im Rahmen einer Recherche der Forschungsstand im Bereich Building Information Modeling und Tiefbau zusammengefasst. Mit Hilfe einiger Forschungsbeiträge, -projekte, -verbände, Dissertationen und Anwendungsprogrammen wird ein Überblick geschaffen. Die Übersicht soll eine Grundlage für die weitere Forschung auf diesem Gebiet bilden. Abschließend findet eine Bewertung statt.
Über die Aufgabenstellung hinaus wird zusätzlich mit dem Softwareprogramm Revit 2014 ein Modell erstellt, um aufzuzeigen, dass das Potential auf Erdbaustellen mit BIM-Anwendungen besser ausgeschöpft werden kann. Es wird versucht eine Gabionenwand, eine Sicherungsmaßnahme von Erdbauwerken zu modellieren und sie mit Parametern auszustatten. Zusammenfassend wird das Programm für den Einsatz im Tiefbau bewertet.
Im Kontext
(2016)
Die etymologische Herkunft des Wortes Kontext findet sich im lateinischen Begriff contexere, bedeutet somit zusammenweben, zusammenflechten. Während die immanente Deutung, z.B. eines Bildes oder einer Architektur, auf formale oder symbolische Aspekte und deren Verbindung zueinander abzielt, wird bei einer kontextuellen Betrachtungsweise der Blick außerhalb des Werkrahmens gelenkt. Etwas im Kontext zu betrachten bestimmt das Verständnis von Äußerungen und Gegenständen, da Zusammenhänge und Beziehungen sichtbar gemacht und aktiv hergestellt werden. Ein umfassenderer Blick wird gewährleistet, der das Objekt vielleicht in einem neuen Licht erscheinen lässt, oder aber auch die dazugehörige Umgebung. Nicht nur der Standpunkt der Betrachtung, auch wie nah oder fern man dem Betrachtungsgegenstand kommt, welchen Ausschnitt man wählt, aus welchem Erfahrungshorizont man an ihn herantritt – all dies beeinflusst letztlich das Ergebnis, sei es einer Deutung oder einer neuen Architektur, eines neuen Stadtteils etc. Der Kontext ist somit kein abgeschlossenes Konstrukt.
„Im Kontext“ ist ein Begriff, der gerade in Architektur und Städtebau von zentraler Bedeutung ist, und vielleicht gerade deshalb gewisse Abnutzungserscheinungen zeigt. Die Frage, inwiefern sich Neubauten in den architektonischen, stadträumlichen oder auch naturräumlichen „Kontext“ fügen (sollten), ist ein immer wiederkehrendes Thema in Architektur und Städtebau, über das leidenschaftlich gestritten wird und wurde. Heutzutage, wo es kaum noch Freiflächen gibt, steht alles in irgendeinem Kontext oder soll zumindest in diesem betrachtet werden. Wird in einer (historischen) Stadt eine Lücke geschlossen, so muss sich das Implantat „in den Kontext“ fügen, sei es architektonisch, räumlich, inhaltlich, historisch, konstruktiv, emotional, theoretisch… Hier hat der Kontext sicherlich auch seine Grenzen. Die Suche nach dem genius loci, nach einer Eigenart des Ortes, nach Traditionen und Kontinuität wird an manchen Orten, die bereits, um die berühmte Metapher Freuds zu bemühen, als Palimpsest erscheinen, geradezu zu einem Manierismus. "Im Kontext" darf also durchaus kritisch hinterfragt werden. Doch können wir deshalb auf die Frage nach dem Kontext verzichten? Gerade, wenn in der Gegenwart die historischen Zusammenhänge verloren zu gehen scheinen, wenn Bedeutungen losgelöst werden von ihrem historischen Gewordensein, kann es wichtig sein, diese wieder zu verankern.