Refine
Document Type
- Article (1015)
- Conference Proceeding (857)
- Doctoral Thesis (494)
- Master's Thesis (115)
- Part of a Book (50)
- Book (45)
- Report (43)
- Periodical (28)
- Preprint (27)
- Bachelor Thesis (22)
Institute
- Professur Theorie und Geschichte der modernen Architektur (493)
- Professur Informatik im Bauwesen (484)
- Institut für Strukturmechanik (ISM) (346)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (201)
- Professur Baubetrieb und Bauverfahren (145)
- Institut für Europäische Urbanistik (71)
- Professur Bauphysik (53)
- Professur Stochastik und Optimierung (46)
- Graduiertenkolleg 1462 (42)
- F. A. Finger-Institut für Baustoffkunde (FIB) (38)
Keywords
- Weimar (446)
- Bauhaus-Kolloquium (442)
- Angewandte Mathematik (331)
- Computerunterstütztes Verfahren (289)
- Architektur (247)
- Architektur <Informatik> (201)
- Strukturmechanik (189)
- CAD (184)
- Angewandte Informatik (155)
- Bauhaus (125)
Die Versagenswahrscheinlichkeit nach einem Grenzzustand wird gewöhnlich mit dem Integral I der Basisvariablen-Verteilungsdichte über den Versagensbereich bestimmt. Dabei ist eine geschlossene Lösung nur im Spezialfall normalverteilter Basisvariablen bei Linearität der Grenzzustandsgleichung möglich. In anderen Fällen sind verschiedene Näherungsverfahren gebräuchlich, die auf den Momenten der Basisvariablen und geeignet gewählten Indizes als Sicherheitskenngrößen beruhen. Eine größere Genauigkeit bieten die Zuverlässigkeitstheorien erster bzw. zweiter Ordnung, die ebenfalls von I ausgehen. Im Beitrag wird ein neuartiges Verfahren vorgestellt, dessen Ausgangspunkt nicht I, sondern das Kraftgrößenverfahren als einem Standardalgorithmus des konstruktiven Ingenieurbaus ist. Die Einbeziehung der maßgebenden Zufallsgrößen in die Matrix der Vorzahlen und die Belastungszahlen führt zur Verallgemeinerung des Systems der Elastizitätsgleichungen zum zufälligen System der Elastizitätsgleichungen. Dessen Lösung, die durch den Übergang zu einem deterministischen Ersatzsystem gewonnen wird, liefert die statisch Unbestimmten als Funktionen der im System wirkenden Zufallsgrößen (z.B. E-Modul der Stäbe und Belastung). Da dieser Zusammenhang analytisch vorliegt, kann die Wirkung einzelner Zufallseinflüsse auf die statisch Unbestimmten und die daraus folgenden sicherheitsrelevanten Zustandsgrößen beurteilt werden. Die Dichtefunktion der Grenzzustandsgleichung kann berechnet oder durch Simulation ermittelt werden. Daraus folgt . Nicht normalverteilte Zufallsgrößen werden durch Entwicklung in orthogonale Polynome Gaußscher Zufallsgrößen berücksichtigt.
Wir betrachten im ÖPNV (Öffentlichen Personennahverkehr) diejenige Situation, daß zwei Bus- oder Straßenbahnlinien gemeinsame Haltestellen haben. Ziel unserer Untersuchungen ist es, für beide Linien einen solchen Fahrplan zu finden, der für die Fahrgäste möglichst viel Bequemlichkeit bietet. Die Bedarfsstruktur - die Anzahl von Personen, die die beiden Linien benutzen - setzt dabei gewisse Beschränkungen für die Taktzeiten der beiden Linien. Die verbleibenden Entscheidungsfreiheiten sollen im Sinne der Zielstellung ausgenutzt werden. Im Vortrag wird folgenden Fragen nachgegangen: - nach welchen Kriterien kann man die "Bequemlichkeit" oder die "Synchonisationsgüte" messen? - wie kann man die einzelnen "Synchronisationsmaße" berechnen ? - wie kann man die verbleibenden Entscheidungsfreiheiten nutzen, um eine möglichst gute Synchronisation zu erreichen ? Die Ergebnisse werden dann auf einige Beispiele angewandt und mit den bereitgestellten Methoden Lösungsvorschläge unterbreitet.
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
In der täglichen Ingenieurpraxis werden in zunehmenden Maße numerische Analysen im Rahmen der Finite-Elemente-Methode auch zur Untersuchung stabilitätsgefährdeter Strukturen eingesetzt. Für die aktuelle Praxis, insbesondere im konstruktiven Stahlbau, ist jedoch festzustellen, dass zwischen der fortgeschrittenen Theorie und dem Niveau der praktischen Anwendung numerischer Stabilitätsanalysen eine große Kluft besteht. Aus praktischer Sicht erscheint es unumgänglich, die weiter wachsende Diskrepanz zwischen den umfangreichen theoretischen Möglichkeiten und der gegenwärtigen Praxis abzubauen. Damit steht der praktisch tätige Ingenieur vor der Aufgabe, sein Wissen auf dem Gebiet numerischer Stabilitätsanalysen zu vertiefen und bereits vorhandene FE-Programme um Berechnungsalgorithmen für umfassende numerische Stabilitätsanalysen zu erweitern. Dafür werden in der Arbeit die Grundlagen einer FEM- orientierten modernen Stabilitätstheorie einheitlich und aus Sicht einer praktischen Anwendung aufbereitet. Die Darstellung von realisierten programmtechnischen Umsetzungen für erweiterte Analysenmethoden wie Nachbeulanalysen, Pfadwechsel und Approximationen imperfekter Pfade ermöglicht eine Erweiterung des Methodenvorrates. Die innerhalb der Arbeit untersuchten Beispiele zeigen, dass durch die Anwendung der behandelten Verfahren das Tragverhalten einer stabilitätsgefährdeten Struktur wesentlich besser eingeschätzt werden kann als bei Beschränkung auf die herkömmlichen Analysemethoden.
In der Arbeit wird ein räumliches Materialmodell für den anisotropen Werkstoff Holz vorgestellt. Dessen Leistungsfähigkeit wird durch Verifikationsrechnungen und die Simulation eigener Versuche aufgezeigt. In diesen Versuchen wurde das Tragverhalten spezieller Schubverbindungselemente der Brettstapel-Beton-Verbundbauweise untersucht. Die Kombination eines Brettstapels mit einer schubfest angeschlossenen Betonplatte ist eine vorteilhafte Möglichkeit, Schnittholz mit geringem Querschnitt effektiv in biegebeanspruchten Bauteilen einzusetzen. Es werden die Ergebnisse der experimentellen Untersuchungen zu den Schubverbindungselementen Flachstahlschloss und Nutverbindung vorgestellt. Diese zeichnen sich durch eine über die gesamte Plattenbreite kontinuierliche Übertragung der Schubkraft per Kontaktpressung aus. Vor allem in Brettstapel-Beton-Verbunddecken werden somit ein sehr hoher Verschiebungsmodul sowie eine eminente Tragfähigkeit erreicht. Um mit numerischen Strukturanalysen die in den Versuchen beobachteten Versagensmechanismen adäquat abbilden und realistische Prognosen für das Tragverhalten von Bauteilen oder Verbindungen treffen zu können, muss das physikalisch nichtlineare Verhalten aller beteiligter Baustoffe in die Berechnungen einbezogen werden. Im Rahmen der Dissertation wurde ein auf der Plastizitätstheorie basierendes Materialmodell für Nadelholz hergeleitet und in das FE-Programm ANSYS implementiert, welches die Mikrostruktur des Holzes als verschmierendes Ersatzkontinuum erfasst. Anhand des anatomischen Aufbaus des inhomogenen, anisotropen und porigen Werkstoffs werden die holzspezifischen Versagensmechanismen und die daraus abgeleiteten konstitutiven Beziehungen erläutert. Das ausgeprägt anisotrope Tragverhalten von Holz ist vor allem durch erstaunliche Duktilität bei Stauchung, sprödes Versagen bei Zug- und Schubbeanspruchung und enorme Festigkeitsunterschiede in den Wuchsrichtungen gekennzeichnet. Die Auswirkungen der größtenteils unabhängig voneinander auftretenden, mikromechanischen Versagensmechanismen auf die Spannungs-Verformungsbeziehungen wurden durch die Formulierung adäquater Ver- resp. Entfestigungsfunktionen in Abhängigkeit der Beanspruchungsmodi erfasst. Das dem Materialmodell zu Grunde liegende mehrflächige Fließkriterium berücksichtigt die Interaktion aller sechs Komponenten des räumlichen Spannungszustandes. Die durchgeführten Verifikations- und Simulationsberechnungen belegen, dass der erarbeitete Ansatz sowohl zur Bewertung des Tragvermögens als auch zur Beurteilung von Riss- bzw. Schädigungsursachen von Holzbauteilen eingesetzt werden kann. Die numerische Simulation eröffnet neue, bisher wenig beachtete Möglichkeiten zur Untersuchung komplexer Holzstrukturen sowie Anschlussdetails und wird sich auf Grund der Aussagekraft und Flexibilität auch im Ingenieurholzbau mehr und mehr gegenüber ausschließlich experimenteller Untersuchung durchsetzen.
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Zur Kontaktsituation zwischen mineralischen Basiserdstoffen und geosynthetischen Filterelementen
(1998)
Die Arbeit befasst sich mit der Anwendung faserverstärkter Kunststoffe für Tragwerke des Hochbaus. Es wird ein geschichtlicher Überblick über die Jahre 1950 bis 1980 gegeben und dabei herausgestellt, wie es 1. zur Einführung des bis 1950 unbekannten Werkstoffes im Bauwesen kommen konnte 2. welche Personen und Institute maßgeblich an der Einführung und Entwicklung des Bauens mit FVK beteiligt waren 3. welche Tragwerke verwendet wurden 4. wie die Pioniere diese Tragwerke bemaßen 5. welche konstruktiven Besonderheiten sich mit der Verwendung von FVK in der Tragstruktur ergaben Nach einer Einführung werden im Kapitel 2 die wichtigsten Faktoren der Entwicklung von Tragwerken aus GFK erörtert. Im Kapitel 3 wird die Technik der Fertigung von GFK-Teilen und deren Fügung beschrieben. Im Kapitel 4 werden die Tragwerke beschrieben und einzelne Tragwerkstypen eingehend erörtert. Im Kapitel 5 werden die Bemessungskonzepte und deren Entwicklung erörtert. In der Bilanz werden die Faktoren aufgezählt, die zum Abklingen des Bauens mit FVK in der Tragstruktur geführt haben. Die Arbeit wird ergänzt durch eine ca. 40-seitige Tabelle in der die gebauten Tragwerke in Abhängigkeit von den technischen Parametern Spannweiten und Lasten dargestellt werden. Im Anhang werden 10 exemplarische Bauten detailliert erörtert.
Für den Entwurf von Ingenieurbauten ist eine zuverlässige Prognose über den Spannungsverlauf im Bauwerk und auf dessen Rand von großer Bedeutung. Eine geschlossene Lösung der elastischen Bestimmungsgleichungen des Bauwerks ist in der Regel nicht verfügbar. Es wird daher unter Verwendung der Methode der gewichteten Reste eine schwache Form der Gleichungen abgeleitet, die zu einem gemischten Arbeitsprinzip führt. Das zugehörige Finite-Elemente-Modell erlaubt es Spannungen am Rand des Bauwerks zu ermitteln, die im Gleichgewicht zu den angreifenden Lasten stehen.
Den Schwerpunkt der vorliegenden Arbeit bilden die konstruktive Entwicklung und die wissenschaftliche Untersuchung des Tragverhaltens von Kopplungselementen für den Ingenieur¬holzbau. Die neu entwickelten Verbindungen bestehen bevorzugt aus Stahlteilen mit Gewindeanschluss und werden mit einem Polymerverguss im Holz verankert. Die Kopplungselemente gestatten die einfache montagegerechte Verbindung von Holzbauteilen untereinander oder zu anderen Bauweisen. Sie nehmen die Zug- oder Drucklast axial auf und gewährleisten eine leistungsfähige und schlupf¬freie Verbindung zum Holz. Für den Verguss wird ein mineralisch gefülltes Epoxidharz mit sehr guten Klebeeigenschaften gegenüber Holz und den meisten üblichen Baustoffen verwendet.
Im Holz werden für die Verankerung der Kopplungselemente Bohrungen vorgesehen, die sich sowohl aus technologischen Gründen als auch für eine gleichmäßige Spannungsverteilung vorteilhaft erweisen. Der Durchmesser der Bohrung ist gegenüber dem Verbindungselement deutlich größer, wodurch die Verbindungsfläche zum Holz bei konstanter Länge ansteigt. Die Vergrößerung der Fugen zwischen dem Verbindungselement und der Holzwandung von 7 mm auf 17 mm führt bei konstanter Einbindetiefe und gleichem Durchmesser des Verbin¬dungsmittels zu einer Laststeigerung von über 20 %. Die größere Vergussfuge gewährleistet darüber hinaus eine Vergleichmäßigung der Spannungen innerhalb der Verbindung, den Ein¬satz von frei geformten Verbindungselementen und eine Vereinfachung der Herstellung.
Die Kopplungselemente sind für den Einsatz in Zug- oder Druckstößen ebenso geeignet wie für biegesteife Anschlüsse axial verbundener Biegeträger oder Rahmenecken. Sie können werkseitig im Holzbauteil vorgesehen oder als direkte Verbindung auf der Baustelle vergossen werden. Für die Baupraxis wird durch den Einsatz des schwindarmen Verguss-materials mit hoher Klebewirkung eine Bandbreite an Anwendungen vom Toleranzausgleich über Schubbewehrung bis zum Druck-, Zug- oder Biegeanschluss geboten.
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Die Beurteilung des Beanspruchungsgrades während eines Versuchs zur experimentellen Tragsicherheitsbewertung erfolgt auf Grundlage der zeitgleich dargestellten Beanspruchungs-Verformungsbeziehung. Für ein frühzeitiges Erkennen von Strukturveränderungen (Rißbildung/Plastizierung) eignen sich jedoch insbesondere Energiebetrachtungen während der verschiedenen Versuchsphasen, da diese das Zusammenspiel von Einwirkung und Tragwerksreaktion vollständig widerspiegeln und auch geringe irreversible Strukturänderungen immer mit Energiedissipation verbunden sind. In der Arbeit wird der Versuchsgrenzlastindikator deltaS (normierte Strukturveränderungsenergie) vorgestellt. Dieser Parameter erfaßt nur die bei Belastungsversuchen interessanten Strukturveränderungen und ermöglicht damit eine objektive Beurteilung des eingereichten Beanspruchungsgrades und eine zuverlässige Identifikation der Versuchsgrenzlast. Anhand von Versuchen im Labor und am realen Bauwerk wird die Anwendung des Indikators erläutert und seine Eignung nachgewiesen.
In diese Veröffentlichung werden die Kennziffern dargestellt, die zur Beurteilung der Struktur von Verkehrsnetzen behilflich sein können. Zu diesem Zweck wurde die Graphentheorie angewendet. Eine erste Gruppe von Bewertungen stützt sich auf die Anzahl der Knoten und Bögen des Netzes. Detailliertere Informationen über Engpässe oder Schwachstellen im Verkehrsnetz erhält man durch die Analyse der Kantenzusammenhangs. Die Unabhängigkeit der einzelnen Verkehrsarten , ihre Bewertung und Maßnahmen, sie zu verbessern werden vorgeschlagen und diskutiert. Weiteren Untersuchungen werden angeregt.
Wirklichkeitsnahe Erfassung und Beschreibung des Trag- und Verformungsverhaltens von Strukturen baulicher Anlagen hat in den letzten Jahrzehnten ständig an Bedeutung gewonnen. Konstruktionen im Hoch- und Industriebau werden zunehmend multifunktional genutzt - die >Grenzen< zwischen Bauwerk und Tragwerk, zwischen Hüll- und Tragkonstruktion lösen sich auf. Werden raumabschließende Elemente (Wände, Decken, Dächer) gleichzeitig als Tragelemente und wärme- und schalldämmende Konstruktionen ausgeführt, so entstehen beispielsweise Sandwichplatten, deren Schichten sehr stark differierende Materialeigenschaften aufweisen. Beim Aufbau des FEM-Modells für vielschichtige Schalen können die Formänderungshypothesen für jede Schicht einzeln als auch für die Schale insgesamt gegeben werden. Im ersten Fall ist der Knotenfreiheitsgrad von der Schichtenzahl abhängig, im zweiten Fall nicht. Im weiteren wird eine Formänderungshypothese für das Schichtenpaket angenommen. Ausgegangen wird von den Gleichungen der 3D-Elastizitätstheorie. Die Berücksichtigung der Querkraftschubverformungen ergibt die Möglichkeit einer adäquaten Beschreibung der Verformungen sowohl dünner Schalen als auch von Schalen mittlerer Dicke; die Berechnung der Krümmungen und der LAMEschen Parameter der Bezugsfläche zu umgehen, was für komplizierte Schalenformen eine selbständige Aufgabe ist; eines natürlichen Übergangs von homogenen zu geschichteten Schalen. Das vielschichtige isoparametrische Schalen-FE wird vorgestellt, seine Implementierung in das in Entwicklung befindliche Programmsystem SLANG wird vorbereitet.
Es wird gezeigt, daß im allgemeinen die Zeichnungsinhalte von Entwurfsplänen im konstruktiven Ingenieurbau in Teilzeichnungen zerlegt werden können, denen fachspezifische Objekte des Bauwesen entsprechen. Solche Objekte sind beispiels- weise Querschnitte, Träger, Stützen und Fundamente. Diese Teilobjekte werden durch eine unterschiedliche Anzahl von Parametern festgelegt werden. Wählt man für diese Parameter die entsprechendnen Fachbegriffe, so hat man durch diese die Möglichkeit die Teilobjekte auch in Datenbanken zu speichern. Neben den Sachparametern müssen auch zeichnungs- technische Werte, wie Maßstab, gewählte Längeneinheiten (m,cm..) und Einsatzpunkt - für die Lage des Teilobjektes im Gesamtplan - gespeichert werden. Zeichenmodule für jedes Teilobjekt können dann bei Aufruf eines bestimmten Planes aus den Daten der Datenbank die Teilzeichnungen generieren, sodaß eine Planspeicherung in der übliche Speicherform (Speicherelemente Punkt, Linie usw.) nicht mehr erforderlich ist. Neben der reinen Darstellung können die Programmodule auch dahingehend erweitert werden, daß auch die zugehörigen Berechnungen durchgeführt werden. Die numerischen Ergebnisse wie auch die Eingabewerte werden in einem alfanumerischen Dokument abgelegt. Damit ergibt sich dann ein Konstruktionsystem für den Entwurf, das insbesondere die Berechnung von Varianten sehr erleichertert. In Sonderfällen können auch die Pläne in ein Standard CAD Programm eingelesen werden, um allfällige Besonderheiten interaktiv zu ergänzen. Das relationale Modell wird weiters vorgestellt, nach dem die Zeichnungsinhalte gespeichert werden. Neben reinen Teilobjektsätzen werden auch Tabellensätze verwendet, um unter einem Namen mehrere numersiche Daten verwalten zu können. Es werden auch sogenannte Fort- setzungssätze besprochen, die in Entsprechung der stark unterschiedlichen Anzahl der Objektattibute verwendet werden.
Seit mehr als fünfzig Jahren werden zur Untersuchung der Tragwerkssicherheit auch Methoden der Wahrscheinlichkeitsrechnung herangezogen. Ungeachtet der inzwischen erreichten Fortschritte und der offensichtlichen Vorzüge, konnte dieses Vorgehen in der Praxis bis jetzt noch nicht ausreichend Fuß fassen. Im Beitrag wird das Problem der Tragwerkssicherheit mit einem neuartigen Verfahren behandelt. Im Unterschied zu den üblichen probabilistischen Methoden geht es nicht von Verteilungsfunktionen aus. Vielmehr werden die maßgebenden Zufallsgrößen in den Mittelpunkt gestellt und direkt in die Rechenvorschrift eingeführt. Als mathematisches Hilfsmittel dienen die WIENERschen Chaos-Polynome. Sie stellen im Raum der Zufallsgrößen mit beschränkter Varianz eine Basis dar, mit der sich eine beliebige Zufallsgröße nach orthogonalen Polynomen GAUSSscher Zufallsgrößen entwickeln läßt. So entsteht ein effektiver Formalismus, der sich eng an die herkömmliche Deformationsmethode anlehnt und als deren probabilistische Verallgemeinerung angesprochen werden darf. Die Methode liefert die Grenzzustandsbedingung als Funktion der auf das Tragwerk wirkenden Zufallsgrößen. Die Versagenswahrscheinlichkeit kann daher durch Monte-Carlo-Simulation bestimmt werden. Die mit der Auswertung des Wahrscheinlichkeitsintegrals der First Order Reliability Method (FORM) verbundenen Schwierigkeiten werden vermieden. An einem Beispieltragwerk wird dargestellt, wie sich Veränderungen gewisser Konstruktionsparameter auf die Versagenswahrscheinlichkeit auswirken.
Ziel der Arbeit ist es, das Arbeitsgebiet der Ökotechnologie durch die praxisbezogene Prüfung von ökologischen Prinzipien und ihre Umsetzung im Rahmen des Optimalitätsprinzips zur Prozess- und Verfahrensentwicklung weiter zu fundieren. Das soll auch dazu beitragen, Entscheidungen für die Gestaltung von stoffwandelnden Prozessen sowie deren Einbindung in gesamtgesellschaftliche Prozesse auf einer nachhaltigkeitsbezogenen richigen objektiven Basis und unter jeweiliger Abwägung von Aufwand und Nutzen , gemessen an dem ausgewählten Zielkriterium, zu treffen.
Im Vortrag wird der Frage nachgegangen, inwieweit zwischen den strukturellen Parametern Dispersion eines Verkehrsnetzes bzw. der Kennziffer der Unterentwicklung eines Verkehrsnetzes und den mittleren Fahrzeiten bzgl. unterschiedlicher Verkehrsbedarfsmatrizen ein Zusammenhang besteht. An Hand von 10 verschiedenen Ring-Radius-Strukturen für den MIV (Motorisierter Individual-Verkehr) und 3 verschiedenen Ring-Radius-Strukturen für den Busverkehr wird bei 5 unterschiedlichen O-D-Bedarfsmatrizen der Nachweiß eines solchen Zusammenhanges geführt. Die Ergebnisse erlauben es, auf Grund struktureller Analysen Aussagen über funktionelle Bewertungen des Verkehrsnetzes zu treffen. Da strukturelle Bewertungen mit wesentlich geringerem Aufwand an Input-Daten und an Rechenzeit als funktionelle Bewertungen bestimmbar sind, bringt dies deutliche Einsparungen in der Planungsphase von Verkehrsnetzen mit sich.
Es wird gezeigt, daß zur Aufstellung eines korrekten Momentengleichgewichts nach Theorie zweiter Ordnung für Querkräfte die Hebelarme des unverformten Systems und für Normalkräfte Hebelarme des verformten Systems zu benutzen sind. Im Allgemeinen ist es aber nicht möglich, die Knotenverformungen eines Rahmens in relevante und nicht relevante Anteile zu zerlegen, so daß ein Momentengleichgewicht bei Berechnungen nach Theorie zweiter Ordnung im Allgemeinen nicht sinnvoll ist.
Neben dem Schwerpunkt der Verflüssigung werden auch Zusatzmittel benötigt, die extrem lange Verarbeitbarkeitszeiten des Betons ermöglichen. Eine neue Wirkungsgruppe, durch die Verarbeitbarkeitszeiten von über 90 Stunden er-reicht werden können, sind Langzeitverzögerer (LVZ) auf der Basis von Phosphonsäure. In systematischen Versuchen wurden grundlegende Erkenntnisse über die Wirkungsmechanismen von LVZ auf die Hydratation gewonnen. Es hat sich gezeigt, dass die verzögernde Wirkung von LVZ auf die Bildung von schwer löslichem Calciumphosphonat zurückzuführen ist, welches die Partikeloberflächen žabdichtetœ. Vom Angebot an gelöstem Calcium hängt es ab, ob sich das žabdichtendeœ Calciumphosphonat direkt bildet oder ob durch den Calciumanspruch des LVZ eine kurzzeitig verstärkte Hydratation reaktiver Klin-kerphasen hervorgerufen wird. Sulfatoptimierte Zemente wiesen aufgrund der Anteile an Sulfatträger genüge! nd Calcium-Ionen für eine sofortige Bildung von Calciumphosphonat auf. In Verbindung mit der Bildung von primärem Ettringit bildet die Sulfatträgeroptimierung die Grundlage für die erwünschte Wirkungsweise des Zusatzmittels.
Seit Anfang der 80er Jahre stehen Zusatzmittel (engl. Shrinkage Reducing Admixture – SRA) der bauchemischen Industrie zur Verfügung, die das Schwinden von Zementstein und Beton reduzieren können. In der vorliegenden Arbeit wurden die Wirkungsmechanismen schwindreduzierender Zusatzmittel (SRA) und darin enthaltener Wirkstoffe in Zementstein systematisch untersucht. Es hat sich gezeigt, dass das autogene Schwinden von Zementstein wurde durch handelsübliche Schwindreduzierer und darin enthaltene Wirkstoffe im Alter von einem halben Jahr um bis zu 77 % reduziert. Durch Schwindreduzierer wurden in Bezug auf die jeweiligen Referenzproben ohne SRA die Anteile an Gelporen im Zementstein erhöht und die Anteile an Kapillarporen verringert. Gleichzeitig stellte sich in den Zementsteinen mit Schwindreduzierer bzw. den darin enthaltenen Wirkstoffen bei konservierender Lagerung eine höhere innere Ausgleichsfeuchte ein als in den jeweiligen Referenzproben ohne SRA. Die bisherige Annahme, die Abminderung des Schwindens durch SRA sei nur auf die Reduzierung der Oberflächenspannung der Porenlösung zurückzuführen, ist nur bedingt zutreffend. Während der Hydratation des Zements wird Wasser verbraucht und in Hydratphasen eingebaut. Hierbei reichern sich die SRA-Moleküle in der Porenlösung des Zementsteins an und verstärken die Spaltdruckwirkung der Porenlösung zwischen den Gelpartikeln. Dadurch wird das autogene Schwinden des Zementsteins vermindert.
Die Festigkeitsentwicklung des Zementbetons basiert auf der chemischen Reaktion des Zementes mit dem Anmachwasser. Durch Nachbehandlungsmaßnahmen muss dafür gesorgt werden, dass dem Zement genügend Wasser für seine Reaktion zur Verfügung steht, da sonst ein Beton mit minderer Qualität entsteht. Die vorliegende Arbeit behandelt die grundsätzlichen Fragen der Betonnachbehandlung bei Anwendung von Straßenbetonen. Im Speziellen wird die Frage des erforderlichen Nachbehandlungsbedarfs von hüttensandhaltigen Kompositzementen betrachtet. Die Wirkung der Nachbehandlung wird anhand des erreichten Frost-Tausalz-Widerstandes und der Gefügeausbildung in der unmittelbaren Betonrandzone bewertet. Der Fokus der Untersuchungen lag auf abgezogenen Betonoberflächen. Es wurde ein Modell zur Austrocknung des jungen Betons erarbeitet. Es konnte gezeigt werden, dass in einer frühen Austrocknung (Kapillarphase) keine kritische Austrocknung der Betonrandzone einsetzt, sondern der Beton annährend gleichmäßig über die Höhe austrocknet. Es wurde ein Nomogramm entwickelt, mit dem die Dauer der Kapillarphase in Abhängigkeit der Witterung für Straßenbetone abgeschätzt werden kann. Eine kritische Austrocknung der wichtigen Randzone setzt nach Ende der Kapillarphase ein. Für Betone unter Verwendung von Zementen mit langsamer Festigkeitsentwicklung ist die Austrocknung der Randzone nach Ende der Kapillarphase besonders ausgeprägt. Im Ergebnis zeigen diese Betone dann einen geringen Frost-Tausalz-Widerstand. Mit Zementen, die eine 2d-Zementdruckfestigkeit ≥ 23,0 N/mm² aufweisen, wurde unabhängig von der Zementart (CEM I oder CEM II/B-S) auch dann ein hoher Frost-Tausalz-Widerstand erreicht, wenn keine oder eine schlechtere Nachbehandlung angewendet wurde. Für die Praxis ergibt sich damit eine einfache Möglichkeit der Vorauswahl von geeigneten Zementen für den Verkehrsflächenbau. Betone, die unter Verwendung von Zementen mit langsamere Festigkeitsentwicklung hergestellt werden, erreichen einen hohen Frost-Tausalz-Widerstand nur mit einer geeigneten Nachbehandlung. Die Anwendung von flüssigen Nachbehandlungsmitteln (NBM gemäß TL NBM-StB) erreicht eine ähnliche Wirksamkeit wie eine 5 tägige Feuchtnachbehandlung. Voraussetzung für die Wirksamkeit der NBM ist, dass sie auf eine Betonoberfläche ohne sichtbaren Feuchtigkeitsfilm (feuchter Glanz) aufgesprüht werden. Besonders wichtig ist die Beachtung des richtigen Auftragszeitpunktes bei kühler Witterung, da hier aufgrund der verlangsamten Zementreaktion der Beton länger Anmachwasser abstößt. Ein zu früher Auftrag des Nachbehandlungsmittels führt zu einer Verschlechterung der Qualität der Betonrandzone. Durch Bereitstellung hydratationsabhängiger Transportkenngrößen (Feuchtetransport im Beton) konnten numerische Berechnungen zum Zusammenspiel zwischen der Austrocknung, der Nachbehandlung und der Gefügeentwicklung durchgeführt werden. Mit dem erstellten Berechnungsmodell wurden Parameterstudien durchgeführt. Die Berechnungen bestätigen die wesentlichen Erkenntnisse der Laboruntersuchungen. Darüber hinaus lässt sich mit dem Berechnungsmodell zeigen, dass gerade bei langsam reagierenden Zementen und kühler Witterung ohne eine Nachbehandlung eine sehr dünne Randzone (ca. 500 µm – 1000 µm) mit stark erhöhter Kapillarporosität entsteht.
Der Beitrag beschreibt die Entwicklung eines Softwaresystems zur strukturierten Erfassung und Verwaltung bestehender Gebäude in der Architektur. Die Erfassung erfolgt durch die Aufnahme von geometrischen Daten und Sachdaten in unterschiedlichen Abstraktionsstufen unter Einbeziehung einer vorangehenden Dekomposition. Basis für die Entwicklung eines solchen Systems ist die Analyse und Systematik der Erfassungstechniken, -abläufe und der Gegenstand der architektonischen Bestandsaufnahme. Parallel hierzu erfolgt die Bewertung und Nutzung aktueller Techniken und Werkzeuge der applikativen Informatik. Schwerpunkte der Forschungsarbeit sind die Ableitung einer allgemeinen Gebäude- und Bauteilstruktur, die Einbeziehung aktueller informationstechnischer Verfahren und Werkzeuge und die Entwicklung eines entsprechenden Experimentalsystems. Auf eine Auswahl softwaretechnischer Entwicklungen wird näher eingegangen (objektspezifische Eigenschaften, flexible Geometrieerfassung und Benutzeroberflächen).
Zukunftsprobleme und Design
(1990)
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Zu den Städtebautheorien von R. Unwin bis E. May : Anmerkungen zum geschichtlichen Hintergrund
(1990)
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Für die Sanierung von Bauwerken werden meist Informationen über die innere Struktur und den Aufbau, Belastungszustände, Feuchte- und Salzgehalte benötigt. Die Untersuchung mit zerstörungsarmen und -freien Methoden minimieren die dazu nötigen Eingriffe. Ebenfalls bieten die ZfP-Verfahren die Möglichkeit, den Erfolg einer Maßnahme zu kontrollieren sowie Prozesse über einen langen Zeitraum zu beobachten (Monitoring). Die vorliegende Arbeit befasst sich mit der zerstörungsfreien Untersuchung von inneren Strukturen und des Aufbaus von Mauerwerk mittels Ultraschall und Radar. Der untersuchte Querschnitt wird tomografisch rekonstruiert. Diese Darstellungsart bietet den Vorteil der Tiefenbestimmung von Objekten und der besseren Visualisierung für Auftraggeber und/oder Laien. Es wurden die Laufzeiten der Longitudinalwellen rekonstruiert. Die Frequenzen der Ultraschalluntersuchungen lagen bei 25 kHz sowie 85 kHz und der Radaruntersuchungen bei 900 MHz sowie 1,5 GHz. Die Rekonstruktion erfolgte mit dem Tomografieprogramm “Geo-Tom“, welches auf der Grundlage des SIRT-Algorithmus arbeitet. Die untersuchten Querschnitte beinhalteten Anomalien bestehend aus Luft, Granit, Holz und Mörtel. Die Abmaße der Anomalien lagen zwischen 10-27 cm bezogen auf einen Querschnitt von 0,76 x 1,0 m. Eine Ortung der Anomalien war möglich, wenn diese eine Laufzeitveränderung von mindestens der Größe des Messfehlers bewirken. Die Größe dieser Laufzeitdifferenz ist abhängig von den Abmaßen der Anomalie und dem Kontrast der elektromagnetischen bzw. akustischen Eigenschaften zwischen Anomalie und umgebenden Material. Eine Aussage über die Größe der Anomalie ist möglich, jedoch kann auf die Form nur bedingt geschlussfolgert werden. Des Weiteren kann durch den Vergleich der beiden Verfahren ein Rückschluss auf die möglichen Materialien der Anomalie gezogen werden.
Die Mahlung als Zerkleinerungsprozess stellt seit den Anfängen der Menschheit eine der wichtigsten Verarbeitungsformen von Materialien aller Art dar - von der Getreidemahlung, über das Aufschließen von Heilkräutern in Mörsern bis hin zur Herstellung von Tonern für Drucker und Kopierer. Besonders die Zementmahlung ist in modernen Gesellschaften sowohl ein wirtschaftlicher als auch ein ökologischer Faktor. Mehr als zwei Drittel der elektrischen Energie der Zementproduktion werden für Rohmehl- und Klinker- bzw. Kompositmaterialmahlung verbraucht. Dies ist nur ein Grund, warum der Mahlprozess zunehmend in den Fokus vieler Forschungs- und Entwicklungsvorhaben rückt. Die Komplexität der Zementmahlung steigt im zunehmenden Maße an. Die simple „Mahlung auf Zementfeinheit“ ist seit langem obsolet. Zemente werden maßgeschneidert, mit verschiedensten Kombinationsprodukten, getrennt oder gemeinsam, in unterschiedlichen Mahlaggregaten oder mit ganz neuen Ansätzen gefertigt. Darüber hinaus gewinnt auch der Sektor des Baustoffrecyclings, mit allen damit verbundenen Herausforderungen, immer mehr an Bedeutung. Bei der Fragestellung, wie der Mahlprozess einerseits leistungsfähige Produkte erzeugen kann und andererseits die zunehmenden Anforderungen an Nachhaltigkeit erfüllt, steht das Mahlaggregat im Mittelpunkt der Betrachtungen. Dementsprechend gliedert sich, neben einer eingehenden Literaturrecherche zum Wissensstand, die vorliegende Arbeit in zwei übergeordnete Teile:
Im ersten Teil werden Untersuchungen an konventionellen Mahlaggregaten mit in der Zementindustrie verwendeten Kernprodukten wie Portlandzementklinker, Kalkstein, Flugasche und Hüttensand angestellt. Um eine möglichst effektive Mahlung von Zement und Kompositmaterialien zu gewährleisten, ist es wichtig, die Auswirkung von Mühlenparametern zu kennen. Hierfür wurde eine umfangreiche Versuchsmatrix aufgestellt und
abgearbeitet. Das Spektrum der Analysemethoden war ebenfalls umfangreich und wurde sowohl auf die gemahlenen Materialien als auch auf die daraus hergestellten Zemente und Betone angewendet. Es konnte gezeigt werden, dass vor allem die Unterscheidung zwischen Mahlkörpermühlen und mahlkörperlosen Mühlen entscheidenden Einfluss auf die Granulometrie und somit auch auf die Zementperformance hat. Besonders stark wurden die Verarbeitungseigenschaften, insbesondere der Wasseranspruch und damit auch das Porengefüge und schließlich Druckfestigkeiten sowie Dauerhaftigkeitseigenschaften der aus diesen Zementen hergestellten Betone, beeinflusst. Bei Untersuchungen zur gemeinsamen Mahlung von Kalkstein und Klinker führten ungünstige Anreicherungseffekte des gut mahlbaren Kalksteins sowie tonigen Nebenbestandteilen zu einer schlechteren Performance in allen Zementprüfungen.
Der zweite Teil widmet sich der Hochenergiemahlung. Die dahinterstehende Technik wird seit Jahrzehnten in anderen Wirtschaftsbranchen, wie der Pharmazie, Biologie oder auch Lebensmittelindustrie angewendet und ist seit einiger Zeit auch in der Zementforschung anzutreffen. Beispielhaft seien hier die Planeten- und Rührwerkskugelmühle als Vertreter genannt. Neben grundlegenden Untersuchungen an Zementklinker
und konventionellen Kompositmaterialien wie Hüttensand und Kalkstein wurde auch die Haupt-Zementklinkerphase Alit untersucht. Die Hochenergiemahlung von konventionellen Kompositmaterialien generierte zusätzliche Reaktivität bei gleicher Granulometrie gegenüber der herkömmlichen Mahlung. Dies wurde vor allem bei per se reaktivem Zementklinker als auch bei latent-hydraulischem Hüttensand beobachtet. Gemahlene Flugaschen konnten nur im geringen Maße weiter aktiviert werden. Der generelle Einfluss von Oberflächenvergrößerung, Strukturdefekten und Relaxationseffekten eines Mahlproduktes wurden eingehend untersucht und gewichtet. Die Ergebnisse bei der Hochenergiemahlung von Alit zeigten, dass die durch Mahlung eingebrachten Strukturdefekte eine Erhöhung der Reaktivität zur Folge haben. Hierbei konnte festgestellt werden, das maßgeblich Oberflächendefekte, strukturelle (Volumen-)defekte und als Konterpart Selbstheilungseffekte die reaktivitätsbestimmenden Faktoren sind. Weiterhin wurden Versuche zur Mahlung von Altbetonbrechsand durchgeführt. Im Speziellen wurde untersucht, inwieweit eine Rückführung von Altbetonbrechsand, als unverwertbarer Teil des Betonbruchs, in Form eines Zement-Kompositmaterials in den Baustoffkreislauf möglich ist. Die hierfür verwendete Mahltechnik umfasst sowohl konventionelle Mühlen als auch Hochenergiemühlen. Es wurden Kompositzemente mit variiertem Recyclingmaterialanteil hergestellt und auf grundlegende Eigenschaften untersucht. Zur Bewertung der Produktqualität wurde der sogenannte „Aktivierungskoeffizient“ eingeführt. Es stellte sich heraus, dass die Rückführung von Altbetonbrechsand als potentielles Kompositmaterial wesentlich vom Anteil des Zementsteins abhängt. So konnte beispielsweise reiner Zementstein als aufgemahlenes Kompositmaterial eine bessere Performance gegenüber dem mit Gesteinskörnung beaufschlagtem Altbetonbrechsand ausweisen. Bezogen auf die gemessenen Hydratationswärmen und Druckfestigkeiten nahm der Aktivierungskoeffzient mit fallendem Abstraktionsgrad ab. Ebenfalls sank der Aktivierungskoeffizient mit steigendem Substitutionsgrad. Als Vergleich wurden dieselben Materialien in konventionellen Mühlen aufbereitet. Die hier erzielten Ergebnisse können teilweise der Hochenergiemahlung als gleichwertig beurteilt werden. Folglich ist bei der Aktivierung von Recyclingmaterialien weniger die Mahltechnik als der Anteil an aktivierbarem Zementstein ausschlaggebend.
In der vorliegenden Arbeit werden die experimentellen Ergebnisse eigener Untersuchungen an unbewehrtem und bewehrtem polymermodifiziertem Beton unter mehrfach wiederholter Druck- und Zugbeanspruchung vorgestellt und mit den Ergebnissen ähnlicher Versuche an Normalbeton und hochfestem Beton verglichen. Besondere Aufmerksamkeit wird dabei dem Formänderungsverhalten, der Steifigkeitsdegradation und der Energiedissipation sowie dem Kriechverhalten und der Mitwirkung des Betons zwischen den Rissen gewidmet. Die beobachtete signifikante Steifigkeitsdegradation sowie der ausgeprägt nichtlineare Zusammenhang zwischen der viskosen Verformung und der elastischen Stauchung zeigen, dass bei der Analyse der Kriech¬aus¬wirkungen des polymermodifizierten Betons auf das Tragverhalten entsprechender Kon¬struktionen neben den Gebrauchslasten auch die während der Lastgeschichte aufgetretenen maximalen Beanspruchungssituationen sowie die damit verbundenen Strukturveränderungen zu berücksichtigen sind. Auf der Basis der Versuchsergebnisse und der visko-elastisch-plastischen Kontinuumsschädigungstheorie werden rheologische Modelle zur Beschreibung des zeit- und beanspruchungsabhängigen Tragverhaltens von Betonbauteile vorgeschlagen. Die numerische Umsetzung der vorgeschlagenen Modelle erfolgt unter Berücksichtigung des zeitabhängigen Materialverhaltens des Betons auf der Basis des HAMILTON-Prinzips unter Vernachlässigung der Trägheitskräfte. Durch eine zeitliche Diskretisierung kann die Problembeschreibung auf das Prinzip von LAGRANGE vom Minimum des Gesamtpotentials zurückgeführt und als nichtlineare Optimierungsaufgabe formuliert werden. Die Simulation des beanspruchungsabhängigen Tragverhaltens von Stahlbetonverbundquerschnitten verdeutlicht die Qualität und Leistungsfähigkeit der vorgeschlagenen Modellbildung.
Knapp 30.000 Windenergieanlagen zwischen Nordsee und Alpen lassen unübersehbar erkennen, dass sich unser Energiesystem in einer umfassenden Transformation befindet. Allenthalben erfährt diese Entwicklung eine breite und kontroverse Rezeption und auch in der Denkmalpflege werden Windenergieanlagen aufgrund ihrer mitunter erheblichen Auswirkungen auf die Landschaft noch überwiegend als Störung wahrgenommen. Diese Arbeit nimmt dagegen die historische Entwicklung in den Blick und plädiert dafür, Windenergieanlagen als bedeutendes Kulturerbe zu verstehen. Angesichts des Voranschreitens der Energiewende wird angenommen, dass gerade älteren Modellen als baulichen Zeugnissen umfangreicher energiepolitischer Veränderungen seit den 1970er Jahren eine hohe Bedeutung zugeschrieben werden kann. Daher besteht das Ziel darin, Windenergieanlagen herauszuarbeiten, welche als hervorragende Zeugnisse der Entwicklung der Windenergienutzung in Deutschland zu bewerten sind.
Zur Annäherung werden diese zunächst als Untersuchungsgegenstand typologisch abgegrenzt. Eine wesentliche Besonderheit von Windenergieanlagen besteht darin, dass sie im Verhältnis zur eigentlichen Flächenversiegelung durch ihre vertikale Struktur erhebliche visuelle Auswirkungen auf die Landschaft haben. Anschließend wird die Entwicklung der Windenergienutzung seit den 1970er Jahren genauer betrachtet, welche insgesamt nicht linear verlief und von vielen Konflikten gekennzeichnet ist. Diese muss im Kontext eines wachsenden Umweltbewusstseins verstanden werden, das umfangreiche energiepolitische Veränderungen zur Folge hatte. Auf dieser Grundlage werden schließlich in einer denkmalkundlichen Reihenuntersuchung Windenergieanlagen herausgearbeitet, welche in hervorragender Weise von der Entwicklung zeugen. Die Auswahl bleibt allerdings mit sechs Objekten im Verhältnis zum Gesamtbestand von knapp 30.000 Anlagen relativ beschränkt, weil das auf die Abgrenzung von Besonderheiten ausgelegte etablierte Denkmalverständnis bei einem zeitlich so dichten Bestand gleichartiger Bauwerke an eine Grenze kommt.
Abschließend werden mögliche Erhaltungsperspektiven sowie denkmaltheoretische und -praktische Schlussfolgerungen diskutiert. Dabei ist unbedingt ein Erhalt am Ursprungsstandort anzustreben, wobei im Einzelfall entschieden werden muss, ob Belange des Funktions- oder Substanzerhaltes höher zu gewichten sind. Die skizzierten Auswahlprobleme regen darüber hinaus zur Diskussion zusätzlicher denkbarer Bewertungskategorien an, wobei sich insbesondere die gesellschaftliche Wahrnehmung und ökologische Werte aufdrängen. Zudem kann für die stärkere Berücksichtigung von Funktionszusammenhängen bei der Betrachtung technischer Infrastruktur in der Denkmalpflege plädiert werden. Insgesamt führt die denkmalkundliche Auseinandersetzung mit Windenergieanlagen damit weit über die Herausarbeitung einzelner Objekte hinaus und macht eindrücklich auf aktuelle Herausforderungen der Denkmalpflege und darüber hinaus aufmerksam.
Most retaining walls and box culverts built for arterial road construction are simple, and the design process of these structures is often repetitive and labor-intensive because they are so similar in structural configuration. Although some integrated design automation systems developed for retaining walls and box culverts have expedited the design process of these structures, the process of collecting and distributing the resultant engineering documents has not been fully integrated with the computer applications. We have been developing a Web-based design automation system to manage the resultant documents as well as to speed up the repetitive design process. Manipulation of engineering drawings in the Web page is one of the critical functions needed for Web-based design automation. eXtensible Markup Language (XML) and XML-based vector graphics are expected to facilitate the representation of engineering drawings in the Web page. In this paper, we present how we used XML and Scalable Vector Graphics (SVG) to compose engineering drawings and represent them in the Web page. XML Data Island we designed to define drawing components turned out effective in manipulating the engineering drawings in the Web page.
Many structures in different engineering applications suffer from cracking. In order to make reliable prognosis about the serviceability of those structures it is of utmost importance to identify cracks as precisely as possible by non-destructive testing. A novel approach (XIGA), which combines the Isogeometric Analysis (IGA) and the Extended Finite Element Method (XFEM) is used for the forward problem, namely the analysis of a cracked material, see [1]. Applying the NURBS (Non-Uniform Rational B-Spline) based approach from IGA together with the XFEM allows to describe effectively arbitrarily shaped cracks and avoids the necessity of remeshing during the crack identification problem. We want to exploit these advantages for the inverse problem of detecting existing cracks by non-destructive testing, see e.g. [2]. The quality of the reconstructed cracks however depends on two major issues, namely the quality of the measured data (measurement error) and the discretization of the crack model. The first one will be taken into account by applying regularizing methods with a posteriori stopping criteria. The second one is critical in the sense that too few degrees of freedom, i.e. the number of control points of the NURBS, do not allow for a precise description of the crack. An increased number of control points, however, increases the number of unknowns in the inverse analysis and intensifies the ill-posedness. The trade-off between accuracy and stability is aimed to be found by applying an inverse multilevel algorithm [3, 4] where the identification is started with short knot vectors which successively will be enlarged during the identification process.
The availability of the WWW technology and the introduction of the Internet as basic resource like water, electricity or gas changes dramatically normal live, business and of course civil engineering. New technologies enable innovative technical solutions and offer new potential for improvements towards support of humans nature appropriate ways of working. This demands a new culture of work and collaboration. To contribute to theses challenges is a matter the discipline 'Bauinformatik' by supporting related research, development, education and training in civil engineering. This contribution to the IKM Conference 2000 in Weimar sketches selected research and education activities of the institutes of the authors on the topics of WWW based simulation systems (example WEASEL) and of WWW based project platforms (projects MorWin and TaiGer as well as an European education experiment). Both topics supports the collaboration by new ways of tele cooperation in international, heterogeneous and interdisciplinary engineering. Demonstration from this developments and projects will be used to illustrate the dimension of changes in civil engineering in due to modern ICT.
Diese Arbeit beschäftigt sich mit der Nutzung von Worteinbettungen in der automatischen Analyse von argumentativen Texten. Die Arbeit diskutiert wichtige Einstellungen des Einbettungsverfahren sowie diverse Anwendungsmethoden der eingebetteten Wortvektoren für drei Aufgaben der automatischen argumentativen Analyse: Textsegmentierung, Argumentativitäts-Klassifikation und Relationenfindung. Meine Experimente auf zwei Standard-Argumentationsdatensätzen zeigen die folgenden Haupterkenntnisse: Bei der Textsegmentierung konnten keine Verbesserungen erzielt werden, während in der Argumentativitäts-Klassifikation und der Relationenfindung sich kleine Erfolge gezeigt haben und weitere bestimmte Forschungsthesen bewahrheitet werden konnten. In der Diskussion wird darauf eingegangen, warum bei der einfachen Worteinbettung in der argumentativen Analyse sich kaum nutzbare Ergebnisse erzielen lassen konnten, diese sich aber in Zukunft durch erweiterte Worteinbettungsverfahren verbessern können.
Martin Peschken studied History of Art and Literature in Berlin and Madrid. In 2005 he completed his doctoral studies in comparative literature at Freie Universität Berlin. He worked then as a curator of the gallery “Laden V-17” in Berlin. In 2005 he joined the project-team of International Building Exhibition “Stadtumbau 2010” in Saxony-Anhalt based at Stiftung Bauhaus Dessau, where he curated several exhibitions and urban projects. He currently works as Scientific Assistant at Technische Universität Braunschweig in the department of “History and Theory of Architecture and Urbanism”.
Am 4. Oktober 2007 fand im Rahmen des Forschungsprojektes „Lebenszyklusorientiertes Management öffentlicher Liegenschaften am Beispiel von Hochschulen und Wissenschaftseinrichtungen“ in Weimar der Workshop „PPP-Eignung und Vorgehensweise bei Hochschulprojekten“ mit über 60 Vertretern von Hochschulen, Studentenwerken, Ministerien, PPP Task Forces und Liegenschaftsbetrieben der Länder statt. Im Beitrag erfolgt die Zusammenstellung der Präsentationen der Referenten.
The paper summarizes a part of research carried out in ICCI project and provides a current review of ICT infrastructures supporting collaboration. It covers taxonomies, protocols, standards, components, typical subsystems as well as future trends and recommendation for two most important technologies with applications in AEC: (1) EIP (Enterprise information portal) – a single gateway to a company's information, knowledge base, and applications for all actors; (2) RTC (Real-Time Communication and Collaboration technologies) that provide means for asynchronous communication between geographically dislocated people using ICT. Proposed future developments are: orientation towards web services - with building information models, business intelligence, personalization, AEC information retrieval, p2p workspaces and grids.
Burning of clinker is the most influencing step of cement quality during the production process. Appropriate characterisation for quality control and decision-making is therefore the critical point to maintain a stable production but also for the development of alternative cements. Scanning electron microscopy (SEM) in combination with energy dispersive X-ray spectroscopy (EDX) delivers spatially resolved phase and chemical information for cement clinker. This data can be used to quantify phase fractions and chemical composition of identified phases.
The contribution aims to provide an overview of phase fraction quantification by semi-automatic phase segmentation using high-resolution backscattered electron (BSE) images and lower-resolved EDX element maps. Therefore, a tool for image analysis was developed that uses state-of-the-art algorithms for pixel-wise image segmentation and labelling in combination with a decision tree that allows searching for specific clinker phases. Results show that this tool can be applied to segment sub-micron scale clinker phases and to get a quantification of all phase fractions. In addition, statistical evaluation of the data is implemented within the tool to reveal whether the imaged area is representative for all clinker phases.
Wolkenbotschaft
(2005)
Lange Zeit, so scheint es, machten die Wolken und ein wolkiger Himmel den Schlaf der Physik. Als nämlich Galileo Galilei im März 1610 und mit einiger Hast seinen >Sidereus Nuncius<, seine Sternenbotschaft oder seinen Sternenboten publizierte, musste er mit dem Protokoll langer und schlafloser Winternächte auch einige Pausen, einige Lücken und Leerstellen verzeichnen. Denn dieser Sternenbote, der die astronomische Nachricht von neuen und bisher ungesehenen Gestirnen vom nächtlichen Himmel auf die Erde herabholte, wurde verschiedentlich und auf empfindliche Weise gestört. ...
Wolken über Las Vegas
(2005)
Die Wahnvorstellung namens 'Sex-Bombe' ist ein Produkt des Kalten Krieges und wie er sich in Schwimmkostümen offenbarte - will sagen: in Bikinis. Am 1. Juli 1946 warf eine B-29 eine Atombombe auf das pazifische Atoll namens Bikini. Militärische Beobachter aus verschiedenen Ländern einschließlich der Sowjetunion sahen von entfernten Schiffen, wie die 'mushroom cloud' über dem evakuierten Eiland aufstieg. Unbemannte, radargesteuerte Flugzeuge mit automatischen Filmkameras an Bord flogen in die nukleare Wolke hinein - als ob es möglich sei, Bildmaterial zu liefern vom Ort der Auflösung alles Materiellen. ...
Wolken modellieren
(2005)
Wolkenformationen und ihre Verwandlungen auf bilddigitalem Weg zu simulieren und in klimatologische Studien zu integrieren, ist eine der komplexesten Aufgaben der aktuellen Umweltphysik. Die Schwierigkeit erklärt sich zum einen sicherlich aus der Konturlosigkeit der nebulösen Gebilde - ihre formale Instabilität und dynamische Prozessualität widerspricht und widersetzt sich der Prognosetätigkeit der Meteorologen bzw. Klimatologen. Immer wieder stellt sich dabei die Frage nach der Codier- und Fixierbarkeit der diffusen Formverläufe, nach der Umrissbildung und Bestimmung eines prinzipiell ungeklärten Figur-Grund-Verhältnisses. Im Folgenden soll die Problemstellung komplexer Simulationstechniken auf klimatologische Bildgebungsverfahren angewandt werden. ...
Wenn Wolken als Grenzfiguren zwischen dem Darstellbaren und dem Nicht-Darstellbaren gerade von der bildenden Kunst immer wieder als Herausforderung begriffen worden sind, dieses Terrain mit ihren Mitteln zu erforschen, so ist es im 20. Jahrhundert allen voran der Surrealismus, der sie in diesem Sinne für sich entdeckt. Dabei geht es nicht allein um ihre Gestaltqualitäten und den Deutungshorizont, den diese eröffnen. Sie erweisen sich vielmehr als ideales Medium für ein künstlerisches Programm, das sich für das Informe interessiert und für den Prozess, das eine Ästhetik der Wandelbarkeit und der Verwandlung im Experiment mit den künstlerischen Mitteln verfolgt, die zugleich mit dem Streben nach mentaler Grenzüberscheitung korrespondieren. ...
Wolken - Editorial
(2005)
Der neue Band des Archivs für Mediengeschichte beschäftigt sich mit Wolken und geht dabei ganz unterschiedlichen Fragestellungen nach. Einerseits verfolgen die Beiträge das naturwissenschaftliche Phänomen»Wolke«, das zu Beginn des 19. Jhds. seine Einteilung in cirrus, cumulus, stratus und nimbus erhielt und seitdem zum bis heute schwer zu entschlüsselndem Forschungsgegenstand wurde. Andererseits ist die Wolke aber auch begehrter künstlerischer Gegenstand. Wolkenmalerei, Wolkenfotografie sowie matte painting und digitale Animation zur Wolkendarstellung im Medium Film sind u. a. Themen dieses Heftes. Und auch eine »schwarze« Seite der Wolke spielt in diesem Band eine Rolle: die Wolkenformationen der Atompilze, die in den 1950er Jahren beliebtes Medienobjekt
Wolken
(2006)
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Wohnen in der Zukunft?
(1987)
Die Verbindung der sozialen und der ökologischen Frage ist eine der zentralen Herausforderungen linker Politik und kritisch-engagierter Wissenschaft heute. Dafür, wie wenig das bisher gelingt, sind die öffentlichen und wissenschaftlichen Diskussionen um die Wohnungsfrage gute Beispiele. Dieser Aufruf ist eine Einladung an den kollektiven Wissensschatz aus Wissenschaft und Aktivismus, die unterschiedlichen Aspekte der ökologischen Wohnungsfrage, die bisher stark fragmentiert behandelt werden, in einzelnen Beiträgen weiter auszuführen und auf ihren strukturellen Zusammenhang mit der sozialen Wohnungsfrage hin zu beleuchten.
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Der Artikel behandelt fünf für das wissenschaftliche Arbeiten besonders relevante Themenfelder: 1) Ziele und Gegenstand wissenschaftlichen Arbeitens, 2) der Zusammenhang von Wissenschaft, Erkenntnis und Fortschritt, 3) eine Darstellung der Forschungslandschaft in Deutschland unter Berücksichtigung der Wissenschaftsorganisation, 4) eine ausführliche, praxisorientierte Erläuterung des typischen Ablaufs eines Forschungsprozesses,
5) eine Skizze zur literaturbasierten Forschung. Der Beitrag stellte zahlreiche Bezüge zur Stadtforschung her und nutzt Beispiele zur Illustration der Inhalte.
Der Entwurf einfacher Konstruktionen stellt für den Tragwerksplaner zumeist eine Routineaufgabe dar. Üblicherweise werden Statik, Zeichnungen sowie Elementelisten separat voneinander erstellt. Das Programmsystem ICAD bietet die Möglichkeit, diese Arbeiten in einer Bearbeitungsstufe durchzuführen. Die Programmierung der Bemessung, Darstellung und Auswertung von Bauteilen wird mit dem Editor Emacs vorgenommen, die grafische Umsetzung des compilierten Quelltextes erfolgt im ICAD-Browser. Innerhalb dieser Benutzeroberfläche steht eine Reihe von Werkzeugen für die Eingabe und Visualisierung von Daten zur Verfügung. Betrachtet man die zu bearbeitenden Bauteile und Anschlüsse als bekannte Konstruktionen des Ingenieurholzbaus, für die es eine festgelegte Anzahl von Abmessungen und Kennwerten gibt, so läßt sich jede dieser Konstruktionen als eigenständiger Modul programmieren. Der Tragwerksplaner ist somit in der Lage, aus einem Katalog an Bauteilen und Anschlüssen die Gesamtkonstruktion zusammenzustellen. Allgemeingültige Kennwerte, Berechnungsverfahren und häufig verwendete Unterprogramme stehen modular als Wissensbasis zur Verfügung und werden von den einzelnen Tragelementen bedarfsgerecht eingebunden. Eine weitere Möglichkeit der wissensbasierten Tragwerksplanung stellt die sogenannte Multi-Criteria-Analyse dar. Bei diesem Verfahren nimmt das Programm selbständig eine Entscheidungsfindung für eine oder mehrere günstige Konstruktionslösungen vor. Dazu sind lediglich Wichtungen verschiedener Randbedingungen durch den Anwender erforderlich.
Due to technological progress and European standardization (e.g. ISO certification) there is an increasing demand to automate the digital recording of building plans. Currently there are two approaches available: (1) labour-intensive redrawing with digitizing tablets or by screen digitizing, (2) automatic scanning and vectorizing where vectorization generally demands an interactive follow-up treatment due to incomplete or ambigues results. This paper proposes a knowledge-based approach for building plan analysis. The procedure reveals the following processing steps: scanning of the building plan, enhancing the image quality and binarization, extraction of lines, line junctions and character fields, knowledge-based interpretation and grouping of image features to domain specific feature aggregates like door symbols, stair symbols etc., optical character recognition and lexicon-based interpretation of character fields, matching of feature aggregates with dimension sets. First results of a prototype implementation are presented. At last an extension of the approach towards a semantic modeling concept showing a coupling between 3D object modeling and an explict 2D modeling of images and technical drawings is presented
Wissen wer wo wohnt
(2012)
In cities people live together in neighbourhoods. Here they can find the infrastructure they need, starting with shops for the daily purpose to the life-cycle based infrastructures like kindergartens or nursing homes. But not all neighbourhoods are identical. The infrastructure mixture varies from neighbourhood to neighbourhood, but different people have different needs which can change e.g. based on the life cycle situation or their affiliation to a specific milieu. We can assume that a person or family tries to settle in a specific neighbourhood that satisfies their needs. So, if the residents are happy with a neighbourhood, we can further assume that this neighbourhood satisfies their needs. The socio-oeconomic panel (SOEP) of the German Institute for Economy (DIW) is a survey that investigates the economic structure of the German population. Every four years one part of this survey includes questions about what infrastructures can be found in the respondents neighbourhood and the satisfaction of the respondent with their neighbourhood. Further, it is possible to add a milieu estimation for each respondent or household. This gives us the possibility to analyse the typical neighbourhoods in German cities as well as the infrastructure profiles of the different milieus. Therefore, we take the environment variables from the dataset and recode them into a binary variable – whether an infrastructure is available or not. According to Faust (2005), these sets can also be understood, as a network of actors in a neighbourhood, which share two, three or more infrastructures. Like these networks, this neighbourhood network can also be visualized as a bipartite affiliation network and therefore analysed using correspondence analysis. We will show how a neighbourhood analysis will benefit from an upstream correspondence analysis and how this could be done. We will also present and discuss the results of such an analysis.
Entsprechend des jeweiligen Erhaltungszustandes einer Straße müssen immer wieder Arbeitsstellen eingerichtet werden, um Baumaßnahmen zum Substanzerhalt der Straßeninfrastruktur durchzuführen. Die vorliegende Arbeit befasst sich mit solchen Arbeitsstellen an vierstreifigen Autobahnen. Für vierstreifige Autobahnen ergibt sich aus den bestehenden Regelwerken und Anforderungen des Straßenbaulastträgers die Erfordernis, möglichst Behelfsverkehrsführungen der Form 4+0 einzurichten. Ferner sollen die beiden Fahrtrichtungen zur Erhöhung der Verkehrssicherheit möglichst durch transportable Schutzeinrichtungen getrennt werden. Unter Berücksichtigung der Mindestwerte die in den gültigen Regelwerken für Behelfsfahrstreifen genannt werden, ergibt sich für eine Behelfsverkehrsführung der Form 4+0, mit Trennung des Gegenverkehrs durch transportable Schutzeinrichtungen, eine Mindestbreite von 12,0 m, die als befestigte Fläche zur Verfügung stehen muss. In der Praxis haben die Richtungsfahrbahnen von vierstreifigen Autobahnen in der Regel Breiten der befestigten Fläche von deutlich weniger als 12,0 m. Daher werden in der Baupraxis Kompromisslösungen eingesetzt, die im wesentlichen darauf beruhen, entweder eine andere Verkehrsführung als 4+0 einzusetzen, auf die Trennung mittels transportabler Schutzeinrichtung zu verzichten, die Fahrstreifenbreiten unter das geforderte Mindestmaß zu verringern oder die Breite der befestigten Fläche im Vorfeld der Maßnahme baulich zu verbreitern. Die vorliegende Arbeit nimmt sich dieser Problematik an. Hierzu werden die bestehenden Anforderungen und Randbedingungen analysiert, die hieraus resultierenden Konflikte beschrieben und die in der Praxis eingesetzten Varianten, Kombinationen aus Behelfsfahrstreifenbreiten, Verkehrsführung und Trennungssystem, vergleichend bewertet. Dieser Vergleich erfolgt für verschiedene Breiten der Richtungsfahrbahnen und für verschiedene Verkehrsstärken. Aufgabe des Vergleichs war es, die Variante herauszufinden, welche unter bestimmten Randbedingungen (wie z. B. Verkehrsstärke, Höhe der Baukosten) die niedrigsten volkswirtschaftlichen Gesamtkosten aufweist. Als Vergleichsverfahren wurde ein volkswirtschaftlicher Ansatz gewählt. Für die Durchführung des volkswirtschaftlichen Vergleiches wurde zunächst analysiert, auf welche bewertungsrelevanten Größen sich die untersuchten Varianten auswirken. Hierbei stellten sich die Größen Investitionskosten, Arbeitsstellendauer, Fahrzeuggeschwindigkeiten und Unfallkosten als die relevanten Einflussgrößen dar. Die Wirkungen der eingesetzten Varianten auf die relevanten Einflussgrößen mussten im Rahmen der vorliegenden Arbeit quantifiziert werden. Die Quantifizierung der Wirkungen erfolgte daher weitgehend im Rahmen der vorliegenden Arbeit, bestehende Kenntnislücken konnten durch die vorliegende Arbeit verkleinert werden. Als Grundlage zur Quantifizierung der Wirkungen konnte dabei auf vorhandene empirische Daten und Auswertungen zurückgegriffen werden. Zur Absicherung der, durch das volkswirtschaftliche Bewertungsverfahren erzielten Berechnungsergebnisse, wurden in der Berechnung maßgebliche Kenngrößen variiert. Hierdurch konnten Aussagen zur Sensitivität der Berechnungsergebnisse erzielt werden. Die Arbeit zeigt, dass ein Vergleich der betrachteten Varianten mit dem in der Arbeit angepassten Bewertungsverfahren möglich ist. Für die untersuchten Varianten wurden jeweils deren volkswirtschaftliche Vor- und Nachteile herausgearbeitet und aufgezeigt, aus welchen der betrachteten Felder (Verkehrsablauf, Verkehrssicherheit, Kosten, Umwelt) diese Vor- und Nachteile resultieren. Die erzielten Berechnungsergebnisse wurden dahingehend ausgearbeitet, dass Einsatzempfehlungen für die einzelnen Varianten gegeben werden konnten. Dabei wurden jeweils Empfehlungen für vier verschiedene Breiten der befestigten Fläche, drei unterschiedliche Baukostenansätze und sechs verschiedene Verkehrsstärken gegeben. Durch die Arbeit konnten einige bislang vorhandene Kenntnislücken geschlossen bzw. verkleinert werden, dies betrifft z. B. die Darstellung der Zusammenhänge zwischen Behelfsverkehrsführung, Baukosten und Bauzeit, die Ermittlung von Unfallkenngrößen für verschiedene Verkehrsführungen und Behelfsfahrstreifenbreiten, die Ermittlung von Verkehrsstärke-Geschwindigkeitsbeziehungen für verschiedene Verkehrsführungen und Behelfsfahrstreifenbreiten sowie die Ableitung von Mindestbreiten von Behelfsfahrstreifen. Durch die Arbeit konnte auch aufgezeigt werden, dass in einigen Teilbereichen noch weiterer Forschungsbedarf besteht.
Keramische Werkstoffe stellen bewährte, ästhetisch ansprechende und dauerhafte Baustoffe dar. Sie können als ökologisch wertvoll, gesund und wirtschaftlich eingestuft werden (Wagner et al. 1998)... Zum Einsatz von Sekundärrohstoffen in keramische Massen, d.h. zur Herstellung keramischer Erzeugnisse wurden bereits zahlreiche Untersuchungen durchgeführt. ... Die Zielstellung der vorliegenden Arbeit liegt daher in der umfassenden Beurteilung des Einsatzes von Sekundärrohstoffen in silikatkeramische Massen. Als Sekundärrohstoffe wurden Gesteins- sowie Glas- bzw. glashaltige Reststoffe unterschiedlicher Zusammensetzungen gewählt. ...
Wireless sensor networks have attracted great attention for applications in structural health monitoring due to their ease of use, flexibility of deployment, and cost-effectiveness. This paper presents a software framework for WiFi-based wireless sensor networks composed of low-cost mass market single-board computers. A number of specific system-level software components were developed to enable robust data acquisition, data processing, sensor network communication, and timing with a focus on structural health monitoring (SHM) applications. The framework was validated on Raspberry Pi computers, and its performance was studied in detail. The paper presents several characteristics of the measurement quality such as sampling accuracy and time synchronization and discusses the specific limitations of the system. The implementation includes a complementary smartphone application that is utilized for data acquisition, visualization, and analysis. A prototypical implementation further demonstrates the feasibility of integrating smartphones as data acquisition nodes into the network, utilizing their internal sensors. The measurement system was employed in several monitoring campaigns, three of which are documented in detail. The suitability of the system is evaluated based on comparisons of target quantities with reference measurements. The results indicate that the presented system can robustly achieve a measurement performance commensurate with that required in many typical SHM tasks such as modal identification. As such, it represents a cost-effective alternative to more traditional monitoring solutions.
Wir müssen nicht in einem Stil bauen! - Industriearchitektur als baukulturelle Herausforderung
(1990)
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Die Dissertation widmet sich den 'Wiederholungsstrukturen in den Filmen von Jim Jarmusch'. Mit dem Thema soll ein neues Konzept der Filmanalyse vorgestellt werden. In seiner Methodologie beruht es auf dem Element der Wiederholung. Die Wiederholung tritt im Film semiotisch auf. Im modernen philosophischen Denken spielt die Wiederholung eine Rolle, indem sie auf bestimmte Weise differentiell auftritt. Im Film bildet die Wiederholung kennzeichnende Codierungen aus. In unterschiedlicher Hinsicht bietet es sich somit an, das Element als Schlüssel zur Filminterpretation aufzugreifen. Das neue Konzept unterscheidet sich von bisherigen filmischen Methoden dadurch, dass mit ihm über das standardisierte Begriffsinstrumentarium aus der Filmwissenschaft hinausgegangen wird, ohne diesem den Rücken zu kehren. Jedoch wird Filmanalyse anhand des Elements der Wiederholung nun genuin als Akt der semiotischen Interpretation und des philosophischen Lesens von Filmen begriffen. In diesem Rahmen beruht das Verstehen von Filmen auf einzelnen und komplexen Zeichen, die im Film Zeitlichkeit und Räumlichkeit herstellen. In poststrukturaler Hinsicht lässt sich die Wiederholung als das konstitutive Moment im Zeit-Bild von Gilles Deleuze verstehen. In der Philosophie gibt es aber noch andere Denker, bei denen die Wiederholung relevant ist. Wie lässt sich die Wiederholung als materielles Element im Film einerseits, als philosophisch Gedachtes andererseits für die Filmanalyse gewinnbringend einsetzen? In Beantwortung dieser Frage wird in der Untersuchung zu den 'Wiederholungsstrukturen in den Filmen von Jim Jarmusch' versucht, dem Konzept des auteur-structuralisme Rechnung zu tragen. In der Lektüre und Interpretation wird Jarmusch als Autor / auteur mit der Struktur seiner Filme 'identifiziert'. Mit der Verschränkung von Autor / auteur und filmischem Text wird auf Roland Barthes Forderung nach der 'Geburt des Lesers' eingegangen. Filme sind demnach auch dann lesbar, wenn der Autor / auteur selbst (in unserem Fall Jim Jarmusch) für das, was er produziert hat, nicht mehr einsteht. Das theoretische Ziel der Untersuchung liegt darin, Erkenntnisse über die filmische Wiederholung zu gewinnen, sowohl in Bezug auf das philosophische Denken der Wiederholung, als auch hinsichtlich ihrer materiellen Verkörperung. Das Denken der Wiederholung wird fragend behandelt, indem wissenschaftlich untersuchend in die filmische Illusion eingegriffen wird. Mit Blick auf das ganze filmische Schaffen Jarmuschs wird aufgezeigt, wie sich seine filmischen „möglichen Welten“ anhand der Aufschlüsselung der Zeichen interpretieren lassen. Die Untersuchung stellt somit ein bislang noch nicht angewandtes Konzept der Betrachtung von Filmen vor, das auch auf andere Filmautoren / auteurs und ihr jeweiliges künstlerisches Schaffen übertragbar wäre.
Why isn't Google welcome in Kreuzberg? Social movement and the effects of Internet on urban space
(2020)
Advances in information and communication technologies such as the Internet have driven a great transformation in the interactions between individuals and the urban environment. As the use of the Internet in cities becomes more intense and diverse, there is also a restructuring of urban space, which is experienced by groups in society in various ways, according to the specificity of each context. Accordingly, large Internet companies have emerged as new players in the processes of urbanization, either through partnerships with the public administration or through various services offered directly to urban residents. Once these corporations are key actors in the digitalization of urban services, their operations can affect the patterns of urban inequality and generate a series of new struggles over the production of space. Interested in analyzing this phenomena from the perspective of civil society, the present Master Thesis examined a social movement that prevented Google to settle a new startup campus in the district of Kreuzberg, in Berlin. By asking why Google was not welcome in that context, this study also sought to understand how internet, as well as its main operators, has affected everyday life in the city. Thus, besides analyzing the movement, I investigated the particularities of the urban context where it arose and the elements that distinguish the mobilization’s opponent. In pursuit of an interdisciplinary approach, I analyzed and discussed the results of empirical research in dialogue with critical theories in the fields of urban studies and the Internet, with emphasis on Castells' definitions of urban social movements and network society (1983, 2009, 2015), Couldry's and Mejias' (2019) idea of data colonialism, Lefèbvre's (1991, 1996) concepts of abstract space and the right to the city, as well as Zuboff's (2019) theory of surveillance capitalism. The case at hand has exposed that Google plays a prominent role in the way the Internet has been developed and deployed in cities. From the perspective accessed, the current appropriation of Internet technologies has been detrimental to individual autonomy and has contributed to intensifying existing inequalities in the city. The alternative vision to this relies mainly on the promotion of decentralized solidarity networks.
A complex artistic research on the theme of cultural heritage and (neo)colonial processes of material and immaterial expropriation. Starting from the encounter with a phonographic relic at the Berliner Phonogramm-Archiv, the artist embarks on a journey to her own roots embodied in the practice of the Afro-Brazilian religion Candomblé. In the form of a theoretical treatise, an archive (photos, diagrams, maps, newspaper clippings, letters, documents), as well as a sound performance in the public space of the city of Weimar, several theoretical and performative elements are brought together in this transmedia artistic research that proposes a true decolonial practice.
Why Do Digital Native News Media Fail? An Investigation of Failure in the Early Start-Up Phase
(2020)
Digital native news media have great potential for improving journalism. Theoretically, they can be the sites where new products, novel revenue streams and alternative ways of organizing digital journalism are discovered, tested, and advanced. In practice, however, the situation appears to be more complicated. Besides the normal pressures facing new businesses, entrepreneurs in digital news are faced with specific challenges. Against the background of general and journalism specific entrepreneurship literature, and in light of a practice–theoretical approach, this qualitative case study research on 15 German digital native news media outlets empirically investigates what barriers curb their innovative capacity in the early start-up phase. In the new media organizations under study here, there are—among other problems—a high degree of homogeneity within founding teams, tensions between journalistic and economic practices, insufficient user orientation, as well as a tendency for organizations to be underfinanced. The patterns of failure investigated in this study can raise awareness, help news start-ups avoid common mistakes before actually entering the market, and help industry experts and investors to realistically estimate the potential of new ventures within the digital news industry.