Refine
Document Type
- Article (1015)
- Conference Proceeding (857)
- Doctoral Thesis (494)
- Master's Thesis (115)
- Part of a Book (50)
- Book (45)
- Report (43)
- Periodical (28)
- Preprint (27)
- Bachelor Thesis (22)
Institute
- Professur Theorie und Geschichte der modernen Architektur (493)
- Professur Informatik im Bauwesen (484)
- Institut für Strukturmechanik (ISM) (346)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (201)
- Professur Baubetrieb und Bauverfahren (145)
- Institut für Europäische Urbanistik (71)
- Professur Bauphysik (53)
- Professur Stochastik und Optimierung (46)
- Graduiertenkolleg 1462 (42)
- F. A. Finger-Institut für Baustoffkunde (FIB) (38)
Keywords
- Weimar (446)
- Bauhaus-Kolloquium (442)
- Angewandte Mathematik (331)
- Computerunterstütztes Verfahren (289)
- Architektur (247)
- Architektur <Informatik> (201)
- Strukturmechanik (189)
- CAD (184)
- Angewandte Informatik (155)
- Bauhaus (125)
Nur durch Aufträge entsteht das Potenzial, die hochwertigen und modernen Produkte, Verfahren und Systeme auch erfolgreich und vielfach in die Realität umzusetzen. Deshalb sind auch im traditionellen Bauwesen die Mechanismen des Marketings für die Akquisition zu analysieren und hinterfragt der Verfasser das Bild von Baubetrieben als kompetente Anbieter für alle Phasen des Bauens vom Baustoff bis zur Inbetriebnahme eines schlüsselfertigen Objektes. Systemanbieter bereiten die Basis für eine innovative und vernetzte Arbeitsweise.
Der Sage nach wurde Europa, jene fremde Königstochter, vom Göttervater Zeus in der Verkleidung eines majestätischen Stiers vom fernen Phoenizien nach Kreta – wörtlich – „übertragen“, das heißt von hier nach dort getragen. So gesehen erzeugt Europa einen dritten Raum, einen Trenn- und/oder Bindestrich zwischen Orient und Okzident, als diasporadische Figur und auch als Kontinent. Die Logik eines solchen Strichs, der zugleich trennt und verbindet, findet eine kartographische Entsprechung im nullten Längengrad, der die ganze Welt in ein Einheit schaffendes Koordinatensystem „übersetzt“, mit Greenwich als Zentrum. Ein Äquivalent eines solchen fixen Ausgangspunktes findet sich in der perspektivischen Europa-Darstellung in Tiepolos Darstellung der Kontinente im Deckenfries des Treppenhauses der Fürstbischöflichen Residenz in Würzburg. In diesem architektonischen Gemälde bildet Europa das Frontispiz, das nur von einem privilegierten Standort auf dem ersten Treppenabsatz unverzerrt betrachtet werden kann. Gegenstand dieses Beitrags sind eben diese drei medienkulturellen Europa-Inszenierungen: 1.) eine Sage, 2.) das kartographische Element des Nullmeridians und 3.) Tiepolos Treppenhausgemälde, sie alle verstehe ich als medienkulturelle Übersetzungen Europas. Ziel dieses Beitrags ist es zu fragen, wie diese drei kulturellen Objekte in ihren jeweiligen medialen Modi am Europa-Begriff arbeiten. Dreh- und Angelpunkt ist dabei der Akt des Übersetzens, und zwar sowohl im Sinne einer Umschrift von einem medialen Modus in den anderen als auch als durchaus physisch zu verstehende Bewegung einer Migration zwischen Heimat und Fremde. Ergebnis dieser Betrachtungen ist ein Europa-Begriff, der nicht unproblematisch mit sich selbst identisch ist, sondern sich erst in der Bewegung des Übersetzens konstituiert, also im dritten Raum oder als Bindestrich zwischen den Kulturen.
Im Heft zum zehnjährigen Jubiläum von sub\urban mit dem Themenschwerpunkt „sub\x: Verortungen, Entortungen" veröffentlichen wir eine Debatte, die von den bisherigen in unserer Zeitschrift in dieser Rubrik geführten textlichen Diskussionen abweicht. Im Vorfeld der Planungen für unsere Jubiläumsausgabe haben wir die aktuellen Mitglieder unseres wissenschaftlichen Beirats darum gebeten, zwei grundlegende Fragen von kritischer Stadtforschung in kurzen Beiträgen zu diskutieren: Was ist Stadt? Was ist Kritik?
Voraussetzungen einer ordnungsgemäßen Ausschreibung, Beachtung des Vergaberechtssystems, Vergaberecht bei Privatisierungen, Abgrenzung zwischen VOL- und VOF-Verfahren, ordnungsgemäße Schwellenwertermittlung, Finanzierung und Planung, richtige Vergabeart, richtige Leistungs- und Aufgabenbeschreibung, ordnungsgemäße Wertung, Aufhebung der Ausschreibung, ordnungsgemäßer Vergabevermerk
The work has studied the structure and properties of gypsum compositions modified with the manmade modifier based on metallurgical dust and multi-walled carbon nanotubes. The results show that changing the structure of solid gypsum leads to the increase in bending and compressive strength by 70,5% and 138% correspondingly, the water resistance increasing and the softening factor reaching 0,85. Modifying gypsum composition with complex additive leads to the formation of amorphous structures based on calcium hydrosilicates on the surface of primary gypsum crystallohydrates that bond gypsum crystals and reduce the access of water.
In many applications such as parameter identification of oscillating systems in civil enginee-ring, speech processing, image processing and others we are interested in the frequency con-tent of a signal locally in time. As a start wavelet analysis provides a time-scale decomposition of signals, but this wavelet transform can be connected with an appropriate time-frequency decomposition. For instance in Matlab are defined pseudo-frequencies of wavelet scales as frequency centers of the corresponding bands. This frequency bands overlap more or less which depends on the choice of the biorthogonal wavelet system. Such a definition of frequency center is possible and useful, because different frequencies predominate at different dyadic scales of a wavelet decomposition or rather at different nodes of a wavelet packet decomposition tree. The goal of this work is to offer better algorithms for characterising frequency band behaviour and for calculating frequency centers of orthogonal and biorthogonal wavelet systems. This will be done with some product formulas in frequency domain. Now the connecting procedu-res are more analytical based, better connected with wavelet theory and more assessable. This procedures doesn’t need any time approximation of the wavelet and scaling functions. The method only works in the case of biorthogonal wavelet systems, where scaling functions and wavelets are defined over discrete filters. But this is the practically essential case, because it is connected with fast algorithms (FWT, Mallat Algorithm). At the end corresponding to the wavelet transform some closed formulas of pure oscillations are given. They can generally used to compare the application of different wavelets in the FWT regarding it’s frequency behaviour.
In this paper, wavelet energy damage indicator is used in response surface methodology to identify the damage in simulated filler beam railway bridge. The approximate model is addressed to include the operational and surrounding condition in the assessment. The procedure is split into two stages, the training and detecting phase. During training phase, a so-called response surface is built from training data using polynomial regression and radial basis function approximation approaches. The response surface is used to detect the damage in structure during detection phase. The results show that the response surface model is able to detect moderate damage in one of bridge supports while the temperatures and train velocities are varied.
Wayfinding Situations
(2009)
Wayfinding, which is the task of getting from some origin to a destination, is one of the primary spatial problems humans encounter in everyday life. When we wayfind, we act in the environment based on the structure and features of the environment, set against a background of knowledge which is generally understood as having visual characteristics. As mobile and wireless technologies proliferate in urban space it can be considered as having an existence in terms of several spaces, those of places that make up our direct perceptual experience and those of the digital devices and networks that facilitate communication, which are primarily non-visual in nature. This thesis will extend existing work on perception and action in urban space to investigate the role of mobile and ubiquitous technologies in wayfinding and environmental legibility, or more literally how we orientate and find our way in space when we experience it both with and through technology. In order to do this, the research takes the approach of considering wayfinding as a situated activity that takes place against a rich and articulated background of experiences and social connections. Through a series of empirical studies the concept of wayfinding situations is explored from two different perspectives. The first study investigates the relationship between an individual and technology as they act in environmental settings, by comparing learning for a spatial task depending on whether the individual accesses a map or a mobile map to make judgements. The second study seeks to understand the relationship between individual and environment as they act in technological settings, and focuses on the perception and action in space as affected by wireless technologies. The combined outcome of these two empirical studies provides the basis for the definition of a richer and more differentiated concept of wayfinding situations. This informs the final stage of the research in which an applied response is proposed to supporting wayfinding in a specific urban scenario, where the aim is to embed the technology into the spatial setting.
Überwachungspraktiken und –technologien sind in der heutigen Welt omnipräsent und wohl nicht mehr wegzudenken. Ob CCTV-Systeme, Biometrie oder Data Mining – unsere Gesellschaft befindet sich in einem ständigen Überwachungsmodus, der sich weit über einen begrenzten Raum oder zeitlichen Rahmen hinausstreckt. Überwacht wird überall: privat, am Arbeitsplatz oder im Cyberspace, und alles: Interaktionen, Äußerungen, Verhalten. Es werden Unmengen von Daten gesammelt, strukturiert, kombiniert, gekauft und verkauft.
Dieser Modus stellt mehr als eine bloße Neuauflage des Bentham-Foucaultschen Panoptikons dar: der aktuelle Überwachungsmodus, die informationelle Asymmetrie als ihren tragenden Pfeiler beibehaltend, dient nicht nur der Disziplinierung, sondern viel mehr der Kontrolle, die nicht primär negativ-sanktionierend, sondern positiv-leistungssteigernd wirkt: es ist nicht das Ziel, die Individuen zu bestrafen und ein bestimmtes Verhalten zu verbieten, sondern sie durch Belohnung, Interaktion und spielerische Elemente dazu zu bringen, sich auf die gewünschte Art zu verhalten und im Endeffekt sich selbst zu überwachen. Die Kontrolle wird auf diese Weise zum zentralen Schauplatz der Machtausübung, die sich über das Beobachten, Speichern, Auswerten und Sortieren vollzieht. Diese Prozesse hinterlassen keinen Frei- oder Spielraum für Ambiguität; sie verwirklichen die Diktatur der klaren Kante, der Klassifizierung und Kategorisierung ohne Schattierungen. Die Macht selbst befindet sich in einem kontinuierlichen Fluss, sie ist ubiquitär, dennoch schwer lokalisierbar. Sie fungiert nicht mehr unter dem Signum einer pseudosakralen zentralen Instanz, sondern wird durch diverse Akteure und Assemblages kolportiert. Die durch sie implizierten Praktiken der Selbstkontrolle, kulturgeschichtlich ebenfalls religiös oder zumindest philosophisch konnotiert, sind die neuen Rituale des Sehens und Gesehen-Werdens.
Im Zeitalter der elektronischen Datentechnologien gibt es diverse Agenten der Überwachung. Vom besonderen Interesse sind dabei die Wearables, weil sie intim, affektiv und haptisch arbeiten und so, über das Sehen und Gesehen-Werden hinaus, das Berühren und Berührt-Werden und somit die Neuregulierung von Nähe und Distanz ins Spiel bringen. Sie schreiben sich zwar in eine Vermessungstradition eins, die ihre Ursprünge mindestens im 19. Jahrhundert hat, unterscheiden sich aber von dieser in ihrer Intensität und Sinnlichkeit.
This paper describes the concept and experiences of the international Open Distance Learning Course ‘HydroWeb’. This course deals with the introduction of Web-based Collaborative Engineering in standard education programmes of water related engineering and civil engineering based on information sharing. Organized under the umbrella of IAHR and ETNET21 this course is collaboration from several universities from all over the world. Started in 1999 the course demonstrates the potential and innovative opportunities of Web-Technology in education, research and engineering: Students from the different partner universities form small distributed teams to solve a given engineering problem in a time window of two weeks. To overcome the spatial distribution the students apply modern Web technology such as video conferencing, application sharing and document management. All results as well as the final reports are presented as Web document on a shared Web-based project platform (http://www.hydro-web.org). Besides the experiences to apply standard Web tools and working methods based on information sharing instead the conventional information exchange in the daily engineering work the students improve their soft skills operate successfully in international and interdisciplinary project environments as part of the ‘Technical Culture’ of nowadays.
This paper describes the concept, implementation and application of the Web-based Information System ‘Turtle’ for data monitoring, analysis, reporting and management in engineering projects. The system uses a generalised object-oriented approach for information modelling of physical state variables from measurements and simulations by sets of tensor objects and is implemented platform-independently as a Web application. This leads to a more flexible handling of measurement and simulation information in distributed and interdisciplinary engineering projects based on the concept of information sharing. The potential and advantages of Web-based information systems like ‘Turtle’ are described for one selected application example: a measurement programme dealing with the physical limnology of Lake Constance.
This study aims at constructing the simulation system of distribution patterns of solar irradiance, sunshine duration and sky factor with the user-friendly interface and sharing this system with users on the Internet. The characteristics of this simulation system are as follows: (1) Web-based user interface, (2) Accessible system through the Internet and (3) Sunlight and skylight simulation based on physically accurate equations with considering various sky conditions and the reflection from the surface of objects. As a case study, impact of the development plans are analyzed and evaluated using this system. Solar irradiance, sunshine duration and sky factor are calculated at the surface of the buildings and open spaces every 10 minutes from 8 to 16 on the winter solstice. The values of these indices are expressed as the ratio to those calculated under the condition with no buildings. In conclusion, this web-based simulation system can be useful for visualizing the sunlight and skylight conditions on outdoor open spaces and the surface of the buildings to evaluate development plans objectively. Users can make access to the system from almost all of the computers connected with the Internet and modify parameters by themselves to get desirable results. Further improvement of the user interface is necessary using more advanced technology of CGI, Java and JavaScript.
WECHSELNDE ZUSCHREIBUNGEN
(2011)
Steffen de Rudder, Dr.-Ing., ist Architekt und wissenschaftlicher Mitarbeiter an der Bauhaus-Universität Weimar. Er lehrt städtebauliches Entwerfen und forscht zu Themen der Architektur- und Stadtbaugeschichte. 1996 Lehrbeauftragter am Kunsthistorischen Institut der Humboldt-Universität zu Berlin, 1990 bis 2001 selbstständiger Architekt in Potsdam und Berlin (Neubau, Sanierung, Denkmalpflege). Veröffentlichungen zur Bauhaus-Rezeption, zur amerikanischen Architekturgeschichte der Moderne und zur Stadtentwicklung in Berlin und in Thüringen. 2007 erschien: „Der Architekt Hugh Stubbins. Amerikanische Moderne der Fünfziger Jahre in Berlin“.
Wechselwirkung zwischen Baugrundmodell und Gründungsentwurf am Beispiel eines Maschinenfundaments
(2004)
Die Beschreibung und Modellierung des Baugrundes erweist sich aufgrund seiner Genese als schwierig. Diese Tatsache soll am Beispiel eines Gründungsentwurfs, durch die Gegenüberstellung zweier unterschiedlicher Modellansätze demonstriert werden. In diese Betrachtung gehen zum einen "Subjektive Schätzungen" und zum anderen "[Geo]Statistische Baugrundmodelle" ein. Die Bemessung erfolgt anhand einer identischen Ausgangsdatenbasis. Im Ergebnis zeigen sich große Abweichungen zwischen beiden Modellansätzen, die sich auf unterschiedlichen Umgang mit den streuenden Baugrundkenngrößen zurückführen lassen. Die streuenden Baugrundkenngrößen werden bei den "Subjektiven Schätzungen" durch einen einzigen, ungünstig wirkenden Kennwert repräsentiert, der die Eigenschaften eines Homogenbereichs beschreibt. Bei den "[Geo]Statistischen Baugrundmodellen" werden die Baugrundkenngrößen in ihrer Streubreite erfasst, ausgewertet und mit der Monte-Carlo-Simulation in der Grenzzustandsfunktion berücksichtigt.
Die Zonenmethode nach Hertz ist ein vereinfachtes Verfahren zur Heißbemessung von Stahlbetonbauteilen. Um eine händische Bemessung zu ermöglichen, werden daher verschiedene Annahmen und Vereinfachungen getroffen. Insbesondere werden die thermischen Dehnungen vernachlässigt und das mechanische Verhalten durch einen verkleinerten Querschnitt mit konstanten Stoffeigenschaften beschrieben.
Ziel der vorliegenden Arbeit ist, dieses vereinfachte Verfahren in ein nichtlineares Verfahren zur Heißbemessung von Stahlbetondruckgliedern bei Brandbeanspruchung durch die Einheits-Temperaturzeitkurve zu überführen. Dazu werden die wesentlichen Annahmen der Zonenmethode überprüft und ein Vorschlag zur Weiterentwicklung vorgestellt. Dieser beruht im Wesentlichen auf der Modellierung der druckbeanspruchten Bewehrung. Diese weiterentwickelte Zonenmethode wird durch die Nachrechnung von Laborversuchen validiert und das Sicherheitsniveau durch eine vollprobabilistische Analyse und den Vergleich mit dem allgemeinen Verfahren bestimmt.
Welche Zukünfte?
(2017)
Yolanda Ortega Sanz is an architect and associate professor at Polytechnic School, Universitat de Girona, Catalonia, Spain; where she teaches architectural design. Ortega was educated at School of architecture in Barcelona and Arkitektskolen i Aarhus, Denmark. Later on, she received a grant to be a young researcher at Danmarks Kunstbibliotek, Copenhagen. Currently, she is PhD Candidate in the research group FORM where she develops her thesis entitled “Nordic assembly” focus on Modern Architecture in Nordic countries. Her research has been published and presented in several conferences as: 1st International Conference on contemporary architects: Jørn Utzon, Sevilla, Spain; 1st Conference on architectural competition, Nordic Symposium, KTH, Stockholm, Sweden; or Responsibilities and Opportunities in Architectural Conservation, CSAAR, Amman, Jordan.
This research seeks to make an exploratory study of the strategies used by the creators of monuments, memorials, and commemorative places located in the public spaces that use sound as one of the primary raw material in their design. The term acoustic monu-memorials was coined in this research to encircle these structures and places. In order to achieve the goal of this research, it was necessary to compile a number of samples, primarily after the digital recording era of captured sound around 1971 to the present. The compilation was relevant because such a compendium was not found in the literature, and to the author's knowledge, a comprehensive investigation of the strategies used in planning acoustic monu-memorials in the urban spaces does not exist.
The method used to create such compendium was to send a question to people with different background identities, such as visual and sound artists, musicians, art curators, and heritage scholars among others. This question produced a selection of 51 examples of acoustic monu-memorials located in public spaces. Subsequently, the examples were classified into four major categories according to their form and nature. Additionally, two examples from the main categories were chosen as case studies: The Sinti and Roma Memorial in Berlin, Germany and the Niche monument in Cali, Colombia. These study cases were presented, described, and analysed in detail as they represent the type of what could be defined as an acoustic monu-memorial in general.
Lynch’s (1960) five elements that help individuals build the image of the city were transferred and used as a tool to help to build this image into acoustic terms. A thorough analysis of the acquired data yielded found the strategies used by the designers to shape, modify, transform, and structure public space. These strategies are entitled Sound Spaces. Moreover, a list entitled Urban Acoustic Commemoration Code was compiled. This list of suggestions addresses urban planners, architects, artists, designers, and general public interested in the aspects involved when creating acoustic commemoration phenomena in public spaces.
Why Do Digital Native News Media Fail? An Investigation of Failure in the Early Start-Up Phase
(2020)
Digital native news media have great potential for improving journalism. Theoretically, they can be the sites where new products, novel revenue streams and alternative ways of organizing digital journalism are discovered, tested, and advanced. In practice, however, the situation appears to be more complicated. Besides the normal pressures facing new businesses, entrepreneurs in digital news are faced with specific challenges. Against the background of general and journalism specific entrepreneurship literature, and in light of a practice–theoretical approach, this qualitative case study research on 15 German digital native news media outlets empirically investigates what barriers curb their innovative capacity in the early start-up phase. In the new media organizations under study here, there are—among other problems—a high degree of homogeneity within founding teams, tensions between journalistic and economic practices, insufficient user orientation, as well as a tendency for organizations to be underfinanced. The patterns of failure investigated in this study can raise awareness, help news start-ups avoid common mistakes before actually entering the market, and help industry experts and investors to realistically estimate the potential of new ventures within the digital news industry.
A complex artistic research on the theme of cultural heritage and (neo)colonial processes of material and immaterial expropriation. Starting from the encounter with a phonographic relic at the Berliner Phonogramm-Archiv, the artist embarks on a journey to her own roots embodied in the practice of the Afro-Brazilian religion Candomblé. In the form of a theoretical treatise, an archive (photos, diagrams, maps, newspaper clippings, letters, documents), as well as a sound performance in the public space of the city of Weimar, several theoretical and performative elements are brought together in this transmedia artistic research that proposes a true decolonial practice.
Why isn't Google welcome in Kreuzberg? Social movement and the effects of Internet on urban space
(2020)
Advances in information and communication technologies such as the Internet have driven a great transformation in the interactions between individuals and the urban environment. As the use of the Internet in cities becomes more intense and diverse, there is also a restructuring of urban space, which is experienced by groups in society in various ways, according to the specificity of each context. Accordingly, large Internet companies have emerged as new players in the processes of urbanization, either through partnerships with the public administration or through various services offered directly to urban residents. Once these corporations are key actors in the digitalization of urban services, their operations can affect the patterns of urban inequality and generate a series of new struggles over the production of space. Interested in analyzing this phenomena from the perspective of civil society, the present Master Thesis examined a social movement that prevented Google to settle a new startup campus in the district of Kreuzberg, in Berlin. By asking why Google was not welcome in that context, this study also sought to understand how internet, as well as its main operators, has affected everyday life in the city. Thus, besides analyzing the movement, I investigated the particularities of the urban context where it arose and the elements that distinguish the mobilization’s opponent. In pursuit of an interdisciplinary approach, I analyzed and discussed the results of empirical research in dialogue with critical theories in the fields of urban studies and the Internet, with emphasis on Castells' definitions of urban social movements and network society (1983, 2009, 2015), Couldry's and Mejias' (2019) idea of data colonialism, Lefèbvre's (1991, 1996) concepts of abstract space and the right to the city, as well as Zuboff's (2019) theory of surveillance capitalism. The case at hand has exposed that Google plays a prominent role in the way the Internet has been developed and deployed in cities. From the perspective accessed, the current appropriation of Internet technologies has been detrimental to individual autonomy and has contributed to intensifying existing inequalities in the city. The alternative vision to this relies mainly on the promotion of decentralized solidarity networks.
Die Dissertation widmet sich den 'Wiederholungsstrukturen in den Filmen von Jim Jarmusch'. Mit dem Thema soll ein neues Konzept der Filmanalyse vorgestellt werden. In seiner Methodologie beruht es auf dem Element der Wiederholung. Die Wiederholung tritt im Film semiotisch auf. Im modernen philosophischen Denken spielt die Wiederholung eine Rolle, indem sie auf bestimmte Weise differentiell auftritt. Im Film bildet die Wiederholung kennzeichnende Codierungen aus. In unterschiedlicher Hinsicht bietet es sich somit an, das Element als Schlüssel zur Filminterpretation aufzugreifen. Das neue Konzept unterscheidet sich von bisherigen filmischen Methoden dadurch, dass mit ihm über das standardisierte Begriffsinstrumentarium aus der Filmwissenschaft hinausgegangen wird, ohne diesem den Rücken zu kehren. Jedoch wird Filmanalyse anhand des Elements der Wiederholung nun genuin als Akt der semiotischen Interpretation und des philosophischen Lesens von Filmen begriffen. In diesem Rahmen beruht das Verstehen von Filmen auf einzelnen und komplexen Zeichen, die im Film Zeitlichkeit und Räumlichkeit herstellen. In poststrukturaler Hinsicht lässt sich die Wiederholung als das konstitutive Moment im Zeit-Bild von Gilles Deleuze verstehen. In der Philosophie gibt es aber noch andere Denker, bei denen die Wiederholung relevant ist. Wie lässt sich die Wiederholung als materielles Element im Film einerseits, als philosophisch Gedachtes andererseits für die Filmanalyse gewinnbringend einsetzen? In Beantwortung dieser Frage wird in der Untersuchung zu den 'Wiederholungsstrukturen in den Filmen von Jim Jarmusch' versucht, dem Konzept des auteur-structuralisme Rechnung zu tragen. In der Lektüre und Interpretation wird Jarmusch als Autor / auteur mit der Struktur seiner Filme 'identifiziert'. Mit der Verschränkung von Autor / auteur und filmischem Text wird auf Roland Barthes Forderung nach der 'Geburt des Lesers' eingegangen. Filme sind demnach auch dann lesbar, wenn der Autor / auteur selbst (in unserem Fall Jim Jarmusch) für das, was er produziert hat, nicht mehr einsteht. Das theoretische Ziel der Untersuchung liegt darin, Erkenntnisse über die filmische Wiederholung zu gewinnen, sowohl in Bezug auf das philosophische Denken der Wiederholung, als auch hinsichtlich ihrer materiellen Verkörperung. Das Denken der Wiederholung wird fragend behandelt, indem wissenschaftlich untersuchend in die filmische Illusion eingegriffen wird. Mit Blick auf das ganze filmische Schaffen Jarmuschs wird aufgezeigt, wie sich seine filmischen „möglichen Welten“ anhand der Aufschlüsselung der Zeichen interpretieren lassen. Die Untersuchung stellt somit ein bislang noch nicht angewandtes Konzept der Betrachtung von Filmen vor, das auch auf andere Filmautoren / auteurs und ihr jeweiliges künstlerisches Schaffen übertragbar wäre.
Wir müssen nicht in einem Stil bauen! - Industriearchitektur als baukulturelle Herausforderung
(1990)
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Wireless sensor networks have attracted great attention for applications in structural health monitoring due to their ease of use, flexibility of deployment, and cost-effectiveness. This paper presents a software framework for WiFi-based wireless sensor networks composed of low-cost mass market single-board computers. A number of specific system-level software components were developed to enable robust data acquisition, data processing, sensor network communication, and timing with a focus on structural health monitoring (SHM) applications. The framework was validated on Raspberry Pi computers, and its performance was studied in detail. The paper presents several characteristics of the measurement quality such as sampling accuracy and time synchronization and discusses the specific limitations of the system. The implementation includes a complementary smartphone application that is utilized for data acquisition, visualization, and analysis. A prototypical implementation further demonstrates the feasibility of integrating smartphones as data acquisition nodes into the network, utilizing their internal sensors. The measurement system was employed in several monitoring campaigns, three of which are documented in detail. The suitability of the system is evaluated based on comparisons of target quantities with reference measurements. The results indicate that the presented system can robustly achieve a measurement performance commensurate with that required in many typical SHM tasks such as modal identification. As such, it represents a cost-effective alternative to more traditional monitoring solutions.
Keramische Werkstoffe stellen bewährte, ästhetisch ansprechende und dauerhafte Baustoffe dar. Sie können als ökologisch wertvoll, gesund und wirtschaftlich eingestuft werden (Wagner et al. 1998)... Zum Einsatz von Sekundärrohstoffen in keramische Massen, d.h. zur Herstellung keramischer Erzeugnisse wurden bereits zahlreiche Untersuchungen durchgeführt. ... Die Zielstellung der vorliegenden Arbeit liegt daher in der umfassenden Beurteilung des Einsatzes von Sekundärrohstoffen in silikatkeramische Massen. Als Sekundärrohstoffe wurden Gesteins- sowie Glas- bzw. glashaltige Reststoffe unterschiedlicher Zusammensetzungen gewählt. ...
Entsprechend des jeweiligen Erhaltungszustandes einer Straße müssen immer wieder Arbeitsstellen eingerichtet werden, um Baumaßnahmen zum Substanzerhalt der Straßeninfrastruktur durchzuführen. Die vorliegende Arbeit befasst sich mit solchen Arbeitsstellen an vierstreifigen Autobahnen. Für vierstreifige Autobahnen ergibt sich aus den bestehenden Regelwerken und Anforderungen des Straßenbaulastträgers die Erfordernis, möglichst Behelfsverkehrsführungen der Form 4+0 einzurichten. Ferner sollen die beiden Fahrtrichtungen zur Erhöhung der Verkehrssicherheit möglichst durch transportable Schutzeinrichtungen getrennt werden. Unter Berücksichtigung der Mindestwerte die in den gültigen Regelwerken für Behelfsfahrstreifen genannt werden, ergibt sich für eine Behelfsverkehrsführung der Form 4+0, mit Trennung des Gegenverkehrs durch transportable Schutzeinrichtungen, eine Mindestbreite von 12,0 m, die als befestigte Fläche zur Verfügung stehen muss. In der Praxis haben die Richtungsfahrbahnen von vierstreifigen Autobahnen in der Regel Breiten der befestigten Fläche von deutlich weniger als 12,0 m. Daher werden in der Baupraxis Kompromisslösungen eingesetzt, die im wesentlichen darauf beruhen, entweder eine andere Verkehrsführung als 4+0 einzusetzen, auf die Trennung mittels transportabler Schutzeinrichtung zu verzichten, die Fahrstreifenbreiten unter das geforderte Mindestmaß zu verringern oder die Breite der befestigten Fläche im Vorfeld der Maßnahme baulich zu verbreitern. Die vorliegende Arbeit nimmt sich dieser Problematik an. Hierzu werden die bestehenden Anforderungen und Randbedingungen analysiert, die hieraus resultierenden Konflikte beschrieben und die in der Praxis eingesetzten Varianten, Kombinationen aus Behelfsfahrstreifenbreiten, Verkehrsführung und Trennungssystem, vergleichend bewertet. Dieser Vergleich erfolgt für verschiedene Breiten der Richtungsfahrbahnen und für verschiedene Verkehrsstärken. Aufgabe des Vergleichs war es, die Variante herauszufinden, welche unter bestimmten Randbedingungen (wie z. B. Verkehrsstärke, Höhe der Baukosten) die niedrigsten volkswirtschaftlichen Gesamtkosten aufweist. Als Vergleichsverfahren wurde ein volkswirtschaftlicher Ansatz gewählt. Für die Durchführung des volkswirtschaftlichen Vergleiches wurde zunächst analysiert, auf welche bewertungsrelevanten Größen sich die untersuchten Varianten auswirken. Hierbei stellten sich die Größen Investitionskosten, Arbeitsstellendauer, Fahrzeuggeschwindigkeiten und Unfallkosten als die relevanten Einflussgrößen dar. Die Wirkungen der eingesetzten Varianten auf die relevanten Einflussgrößen mussten im Rahmen der vorliegenden Arbeit quantifiziert werden. Die Quantifizierung der Wirkungen erfolgte daher weitgehend im Rahmen der vorliegenden Arbeit, bestehende Kenntnislücken konnten durch die vorliegende Arbeit verkleinert werden. Als Grundlage zur Quantifizierung der Wirkungen konnte dabei auf vorhandene empirische Daten und Auswertungen zurückgegriffen werden. Zur Absicherung der, durch das volkswirtschaftliche Bewertungsverfahren erzielten Berechnungsergebnisse, wurden in der Berechnung maßgebliche Kenngrößen variiert. Hierdurch konnten Aussagen zur Sensitivität der Berechnungsergebnisse erzielt werden. Die Arbeit zeigt, dass ein Vergleich der betrachteten Varianten mit dem in der Arbeit angepassten Bewertungsverfahren möglich ist. Für die untersuchten Varianten wurden jeweils deren volkswirtschaftliche Vor- und Nachteile herausgearbeitet und aufgezeigt, aus welchen der betrachteten Felder (Verkehrsablauf, Verkehrssicherheit, Kosten, Umwelt) diese Vor- und Nachteile resultieren. Die erzielten Berechnungsergebnisse wurden dahingehend ausgearbeitet, dass Einsatzempfehlungen für die einzelnen Varianten gegeben werden konnten. Dabei wurden jeweils Empfehlungen für vier verschiedene Breiten der befestigten Fläche, drei unterschiedliche Baukostenansätze und sechs verschiedene Verkehrsstärken gegeben. Durch die Arbeit konnten einige bislang vorhandene Kenntnislücken geschlossen bzw. verkleinert werden, dies betrifft z. B. die Darstellung der Zusammenhänge zwischen Behelfsverkehrsführung, Baukosten und Bauzeit, die Ermittlung von Unfallkenngrößen für verschiedene Verkehrsführungen und Behelfsfahrstreifenbreiten, die Ermittlung von Verkehrsstärke-Geschwindigkeitsbeziehungen für verschiedene Verkehrsführungen und Behelfsfahrstreifenbreiten sowie die Ableitung von Mindestbreiten von Behelfsfahrstreifen. Durch die Arbeit konnte auch aufgezeigt werden, dass in einigen Teilbereichen noch weiterer Forschungsbedarf besteht.
Wissen wer wo wohnt
(2012)
In cities people live together in neighbourhoods. Here they can find the infrastructure they need, starting with shops for the daily purpose to the life-cycle based infrastructures like kindergartens or nursing homes. But not all neighbourhoods are identical. The infrastructure mixture varies from neighbourhood to neighbourhood, but different people have different needs which can change e.g. based on the life cycle situation or their affiliation to a specific milieu. We can assume that a person or family tries to settle in a specific neighbourhood that satisfies their needs. So, if the residents are happy with a neighbourhood, we can further assume that this neighbourhood satisfies their needs. The socio-oeconomic panel (SOEP) of the German Institute for Economy (DIW) is a survey that investigates the economic structure of the German population. Every four years one part of this survey includes questions about what infrastructures can be found in the respondents neighbourhood and the satisfaction of the respondent with their neighbourhood. Further, it is possible to add a milieu estimation for each respondent or household. This gives us the possibility to analyse the typical neighbourhoods in German cities as well as the infrastructure profiles of the different milieus. Therefore, we take the environment variables from the dataset and recode them into a binary variable – whether an infrastructure is available or not. According to Faust (2005), these sets can also be understood, as a network of actors in a neighbourhood, which share two, three or more infrastructures. Like these networks, this neighbourhood network can also be visualized as a bipartite affiliation network and therefore analysed using correspondence analysis. We will show how a neighbourhood analysis will benefit from an upstream correspondence analysis and how this could be done. We will also present and discuss the results of such an analysis.
Due to technological progress and European standardization (e.g. ISO certification) there is an increasing demand to automate the digital recording of building plans. Currently there are two approaches available: (1) labour-intensive redrawing with digitizing tablets or by screen digitizing, (2) automatic scanning and vectorizing where vectorization generally demands an interactive follow-up treatment due to incomplete or ambigues results. This paper proposes a knowledge-based approach for building plan analysis. The procedure reveals the following processing steps: scanning of the building plan, enhancing the image quality and binarization, extraction of lines, line junctions and character fields, knowledge-based interpretation and grouping of image features to domain specific feature aggregates like door symbols, stair symbols etc., optical character recognition and lexicon-based interpretation of character fields, matching of feature aggregates with dimension sets. First results of a prototype implementation are presented. At last an extension of the approach towards a semantic modeling concept showing a coupling between 3D object modeling and an explict 2D modeling of images and technical drawings is presented
Der Entwurf einfacher Konstruktionen stellt für den Tragwerksplaner zumeist eine Routineaufgabe dar. Üblicherweise werden Statik, Zeichnungen sowie Elementelisten separat voneinander erstellt. Das Programmsystem ICAD bietet die Möglichkeit, diese Arbeiten in einer Bearbeitungsstufe durchzuführen. Die Programmierung der Bemessung, Darstellung und Auswertung von Bauteilen wird mit dem Editor Emacs vorgenommen, die grafische Umsetzung des compilierten Quelltextes erfolgt im ICAD-Browser. Innerhalb dieser Benutzeroberfläche steht eine Reihe von Werkzeugen für die Eingabe und Visualisierung von Daten zur Verfügung. Betrachtet man die zu bearbeitenden Bauteile und Anschlüsse als bekannte Konstruktionen des Ingenieurholzbaus, für die es eine festgelegte Anzahl von Abmessungen und Kennwerten gibt, so läßt sich jede dieser Konstruktionen als eigenständiger Modul programmieren. Der Tragwerksplaner ist somit in der Lage, aus einem Katalog an Bauteilen und Anschlüssen die Gesamtkonstruktion zusammenzustellen. Allgemeingültige Kennwerte, Berechnungsverfahren und häufig verwendete Unterprogramme stehen modular als Wissensbasis zur Verfügung und werden von den einzelnen Tragelementen bedarfsgerecht eingebunden. Eine weitere Möglichkeit der wissensbasierten Tragwerksplanung stellt die sogenannte Multi-Criteria-Analyse dar. Bei diesem Verfahren nimmt das Programm selbständig eine Entscheidungsfindung für eine oder mehrere günstige Konstruktionslösungen vor. Dazu sind lediglich Wichtungen verschiedener Randbedingungen durch den Anwender erforderlich.
Der Artikel behandelt fünf für das wissenschaftliche Arbeiten besonders relevante Themenfelder: 1) Ziele und Gegenstand wissenschaftlichen Arbeitens, 2) der Zusammenhang von Wissenschaft, Erkenntnis und Fortschritt, 3) eine Darstellung der Forschungslandschaft in Deutschland unter Berücksichtigung der Wissenschaftsorganisation, 4) eine ausführliche, praxisorientierte Erläuterung des typischen Ablaufs eines Forschungsprozesses,
5) eine Skizze zur literaturbasierten Forschung. Der Beitrag stellte zahlreiche Bezüge zur Stadtforschung her und nutzt Beispiele zur Illustration der Inhalte.
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Die Verbindung der sozialen und der ökologischen Frage ist eine der zentralen Herausforderungen linker Politik und kritisch-engagierter Wissenschaft heute. Dafür, wie wenig das bisher gelingt, sind die öffentlichen und wissenschaftlichen Diskussionen um die Wohnungsfrage gute Beispiele. Dieser Aufruf ist eine Einladung an den kollektiven Wissensschatz aus Wissenschaft und Aktivismus, die unterschiedlichen Aspekte der ökologischen Wohnungsfrage, die bisher stark fragmentiert behandelt werden, in einzelnen Beiträgen weiter auszuführen und auf ihren strukturellen Zusammenhang mit der sozialen Wohnungsfrage hin zu beleuchten.
Wohnen in der Zukunft?
(1987)
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Wolken
(2006)
Wolken - Editorial
(2005)
Der neue Band des Archivs für Mediengeschichte beschäftigt sich mit Wolken und geht dabei ganz unterschiedlichen Fragestellungen nach. Einerseits verfolgen die Beiträge das naturwissenschaftliche Phänomen»Wolke«, das zu Beginn des 19. Jhds. seine Einteilung in cirrus, cumulus, stratus und nimbus erhielt und seitdem zum bis heute schwer zu entschlüsselndem Forschungsgegenstand wurde. Andererseits ist die Wolke aber auch begehrter künstlerischer Gegenstand. Wolkenmalerei, Wolkenfotografie sowie matte painting und digitale Animation zur Wolkendarstellung im Medium Film sind u. a. Themen dieses Heftes. Und auch eine »schwarze« Seite der Wolke spielt in diesem Band eine Rolle: die Wolkenformationen der Atompilze, die in den 1950er Jahren beliebtes Medienobjekt
Wenn Wolken als Grenzfiguren zwischen dem Darstellbaren und dem Nicht-Darstellbaren gerade von der bildenden Kunst immer wieder als Herausforderung begriffen worden sind, dieses Terrain mit ihren Mitteln zu erforschen, so ist es im 20. Jahrhundert allen voran der Surrealismus, der sie in diesem Sinne für sich entdeckt. Dabei geht es nicht allein um ihre Gestaltqualitäten und den Deutungshorizont, den diese eröffnen. Sie erweisen sich vielmehr als ideales Medium für ein künstlerisches Programm, das sich für das Informe interessiert und für den Prozess, das eine Ästhetik der Wandelbarkeit und der Verwandlung im Experiment mit den künstlerischen Mitteln verfolgt, die zugleich mit dem Streben nach mentaler Grenzüberscheitung korrespondieren. ...
Wolken modellieren
(2005)
Wolkenformationen und ihre Verwandlungen auf bilddigitalem Weg zu simulieren und in klimatologische Studien zu integrieren, ist eine der komplexesten Aufgaben der aktuellen Umweltphysik. Die Schwierigkeit erklärt sich zum einen sicherlich aus der Konturlosigkeit der nebulösen Gebilde - ihre formale Instabilität und dynamische Prozessualität widerspricht und widersetzt sich der Prognosetätigkeit der Meteorologen bzw. Klimatologen. Immer wieder stellt sich dabei die Frage nach der Codier- und Fixierbarkeit der diffusen Formverläufe, nach der Umrissbildung und Bestimmung eines prinzipiell ungeklärten Figur-Grund-Verhältnisses. Im Folgenden soll die Problemstellung komplexer Simulationstechniken auf klimatologische Bildgebungsverfahren angewandt werden. ...
Wolken über Las Vegas
(2005)
Die Wahnvorstellung namens 'Sex-Bombe' ist ein Produkt des Kalten Krieges und wie er sich in Schwimmkostümen offenbarte - will sagen: in Bikinis. Am 1. Juli 1946 warf eine B-29 eine Atombombe auf das pazifische Atoll namens Bikini. Militärische Beobachter aus verschiedenen Ländern einschließlich der Sowjetunion sahen von entfernten Schiffen, wie die 'mushroom cloud' über dem evakuierten Eiland aufstieg. Unbemannte, radargesteuerte Flugzeuge mit automatischen Filmkameras an Bord flogen in die nukleare Wolke hinein - als ob es möglich sei, Bildmaterial zu liefern vom Ort der Auflösung alles Materiellen. ...
Wolkenbotschaft
(2005)
Lange Zeit, so scheint es, machten die Wolken und ein wolkiger Himmel den Schlaf der Physik. Als nämlich Galileo Galilei im März 1610 und mit einiger Hast seinen >Sidereus Nuncius<, seine Sternenbotschaft oder seinen Sternenboten publizierte, musste er mit dem Protokoll langer und schlafloser Winternächte auch einige Pausen, einige Lücken und Leerstellen verzeichnen. Denn dieser Sternenbote, der die astronomische Nachricht von neuen und bisher ungesehenen Gestirnen vom nächtlichen Himmel auf die Erde herabholte, wurde verschiedentlich und auf empfindliche Weise gestört. ...
Burning of clinker is the most influencing step of cement quality during the production process. Appropriate characterisation for quality control and decision-making is therefore the critical point to maintain a stable production but also for the development of alternative cements. Scanning electron microscopy (SEM) in combination with energy dispersive X-ray spectroscopy (EDX) delivers spatially resolved phase and chemical information for cement clinker. This data can be used to quantify phase fractions and chemical composition of identified phases.
The contribution aims to provide an overview of phase fraction quantification by semi-automatic phase segmentation using high-resolution backscattered electron (BSE) images and lower-resolved EDX element maps. Therefore, a tool for image analysis was developed that uses state-of-the-art algorithms for pixel-wise image segmentation and labelling in combination with a decision tree that allows searching for specific clinker phases. Results show that this tool can be applied to segment sub-micron scale clinker phases and to get a quantification of all phase fractions. In addition, statistical evaluation of the data is implemented within the tool to reveal whether the imaged area is representative for all clinker phases.
The paper summarizes a part of research carried out in ICCI project and provides a current review of ICT infrastructures supporting collaboration. It covers taxonomies, protocols, standards, components, typical subsystems as well as future trends and recommendation for two most important technologies with applications in AEC: (1) EIP (Enterprise information portal) – a single gateway to a company's information, knowledge base, and applications for all actors; (2) RTC (Real-Time Communication and Collaboration technologies) that provide means for asynchronous communication between geographically dislocated people using ICT. Proposed future developments are: orientation towards web services - with building information models, business intelligence, personalization, AEC information retrieval, p2p workspaces and grids.
Am 4. Oktober 2007 fand im Rahmen des Forschungsprojektes „Lebenszyklusorientiertes Management öffentlicher Liegenschaften am Beispiel von Hochschulen und Wissenschaftseinrichtungen“ in Weimar der Workshop „PPP-Eignung und Vorgehensweise bei Hochschulprojekten“ mit über 60 Vertretern von Hochschulen, Studentenwerken, Ministerien, PPP Task Forces und Liegenschaftsbetrieben der Länder statt. Im Beitrag erfolgt die Zusammenstellung der Präsentationen der Referenten.
Martin Peschken studied History of Art and Literature in Berlin and Madrid. In 2005 he completed his doctoral studies in comparative literature at Freie Universität Berlin. He worked then as a curator of the gallery “Laden V-17” in Berlin. In 2005 he joined the project-team of International Building Exhibition “Stadtumbau 2010” in Saxony-Anhalt based at Stiftung Bauhaus Dessau, where he curated several exhibitions and urban projects. He currently works as Scientific Assistant at Technische Universität Braunschweig in the department of “History and Theory of Architecture and Urbanism”.
Diese Arbeit beschäftigt sich mit der Nutzung von Worteinbettungen in der automatischen Analyse von argumentativen Texten. Die Arbeit diskutiert wichtige Einstellungen des Einbettungsverfahren sowie diverse Anwendungsmethoden der eingebetteten Wortvektoren für drei Aufgaben der automatischen argumentativen Analyse: Textsegmentierung, Argumentativitäts-Klassifikation und Relationenfindung. Meine Experimente auf zwei Standard-Argumentationsdatensätzen zeigen die folgenden Haupterkenntnisse: Bei der Textsegmentierung konnten keine Verbesserungen erzielt werden, während in der Argumentativitäts-Klassifikation und der Relationenfindung sich kleine Erfolge gezeigt haben und weitere bestimmte Forschungsthesen bewahrheitet werden konnten. In der Diskussion wird darauf eingegangen, warum bei der einfachen Worteinbettung in der argumentativen Analyse sich kaum nutzbare Ergebnisse erzielen lassen konnten, diese sich aber in Zukunft durch erweiterte Worteinbettungsverfahren verbessern können.
The availability of the WWW technology and the introduction of the Internet as basic resource like water, electricity or gas changes dramatically normal live, business and of course civil engineering. New technologies enable innovative technical solutions and offer new potential for improvements towards support of humans nature appropriate ways of working. This demands a new culture of work and collaboration. To contribute to theses challenges is a matter the discipline 'Bauinformatik' by supporting related research, development, education and training in civil engineering. This contribution to the IKM Conference 2000 in Weimar sketches selected research and education activities of the institutes of the authors on the topics of WWW based simulation systems (example WEASEL) and of WWW based project platforms (projects MorWin and TaiGer as well as an European education experiment). Both topics supports the collaboration by new ways of tele cooperation in international, heterogeneous and interdisciplinary engineering. Demonstration from this developments and projects will be used to illustrate the dimension of changes in civil engineering in due to modern ICT.
Many structures in different engineering applications suffer from cracking. In order to make reliable prognosis about the serviceability of those structures it is of utmost importance to identify cracks as precisely as possible by non-destructive testing. A novel approach (XIGA), which combines the Isogeometric Analysis (IGA) and the Extended Finite Element Method (XFEM) is used for the forward problem, namely the analysis of a cracked material, see [1]. Applying the NURBS (Non-Uniform Rational B-Spline) based approach from IGA together with the XFEM allows to describe effectively arbitrarily shaped cracks and avoids the necessity of remeshing during the crack identification problem. We want to exploit these advantages for the inverse problem of detecting existing cracks by non-destructive testing, see e.g. [2]. The quality of the reconstructed cracks however depends on two major issues, namely the quality of the measured data (measurement error) and the discretization of the crack model. The first one will be taken into account by applying regularizing methods with a posteriori stopping criteria. The second one is critical in the sense that too few degrees of freedom, i.e. the number of control points of the NURBS, do not allow for a precise description of the crack. An increased number of control points, however, increases the number of unknowns in the inverse analysis and intensifies the ill-posedness. The trade-off between accuracy and stability is aimed to be found by applying an inverse multilevel algorithm [3, 4] where the identification is started with short knot vectors which successively will be enlarged during the identification process.
Most retaining walls and box culverts built for arterial road construction are simple, and the design process of these structures is often repetitive and labor-intensive because they are so similar in structural configuration. Although some integrated design automation systems developed for retaining walls and box culverts have expedited the design process of these structures, the process of collecting and distributing the resultant engineering documents has not been fully integrated with the computer applications. We have been developing a Web-based design automation system to manage the resultant documents as well as to speed up the repetitive design process. Manipulation of engineering drawings in the Web page is one of the critical functions needed for Web-based design automation. eXtensible Markup Language (XML) and XML-based vector graphics are expected to facilitate the representation of engineering drawings in the Web page. In this paper, we present how we used XML and Scalable Vector Graphics (SVG) to compose engineering drawings and represent them in the Web page. XML Data Island we designed to define drawing components turned out effective in manipulating the engineering drawings in the Web page.
Knapp 30.000 Windenergieanlagen zwischen Nordsee und Alpen lassen unübersehbar erkennen, dass sich unser Energiesystem in einer umfassenden Transformation befindet. Allenthalben erfährt diese Entwicklung eine breite und kontroverse Rezeption und auch in der Denkmalpflege werden Windenergieanlagen aufgrund ihrer mitunter erheblichen Auswirkungen auf die Landschaft noch überwiegend als Störung wahrgenommen. Diese Arbeit nimmt dagegen die historische Entwicklung in den Blick und plädiert dafür, Windenergieanlagen als bedeutendes Kulturerbe zu verstehen. Angesichts des Voranschreitens der Energiewende wird angenommen, dass gerade älteren Modellen als baulichen Zeugnissen umfangreicher energiepolitischer Veränderungen seit den 1970er Jahren eine hohe Bedeutung zugeschrieben werden kann. Daher besteht das Ziel darin, Windenergieanlagen herauszuarbeiten, welche als hervorragende Zeugnisse der Entwicklung der Windenergienutzung in Deutschland zu bewerten sind.
Zur Annäherung werden diese zunächst als Untersuchungsgegenstand typologisch abgegrenzt. Eine wesentliche Besonderheit von Windenergieanlagen besteht darin, dass sie im Verhältnis zur eigentlichen Flächenversiegelung durch ihre vertikale Struktur erhebliche visuelle Auswirkungen auf die Landschaft haben. Anschließend wird die Entwicklung der Windenergienutzung seit den 1970er Jahren genauer betrachtet, welche insgesamt nicht linear verlief und von vielen Konflikten gekennzeichnet ist. Diese muss im Kontext eines wachsenden Umweltbewusstseins verstanden werden, das umfangreiche energiepolitische Veränderungen zur Folge hatte. Auf dieser Grundlage werden schließlich in einer denkmalkundlichen Reihenuntersuchung Windenergieanlagen herausgearbeitet, welche in hervorragender Weise von der Entwicklung zeugen. Die Auswahl bleibt allerdings mit sechs Objekten im Verhältnis zum Gesamtbestand von knapp 30.000 Anlagen relativ beschränkt, weil das auf die Abgrenzung von Besonderheiten ausgelegte etablierte Denkmalverständnis bei einem zeitlich so dichten Bestand gleichartiger Bauwerke an eine Grenze kommt.
Abschließend werden mögliche Erhaltungsperspektiven sowie denkmaltheoretische und -praktische Schlussfolgerungen diskutiert. Dabei ist unbedingt ein Erhalt am Ursprungsstandort anzustreben, wobei im Einzelfall entschieden werden muss, ob Belange des Funktions- oder Substanzerhaltes höher zu gewichten sind. Die skizzierten Auswahlprobleme regen darüber hinaus zur Diskussion zusätzlicher denkbarer Bewertungskategorien an, wobei sich insbesondere die gesellschaftliche Wahrnehmung und ökologische Werte aufdrängen. Zudem kann für die stärkere Berücksichtigung von Funktionszusammenhängen bei der Betrachtung technischer Infrastruktur in der Denkmalpflege plädiert werden. Insgesamt führt die denkmalkundliche Auseinandersetzung mit Windenergieanlagen damit weit über die Herausarbeitung einzelner Objekte hinaus und macht eindrücklich auf aktuelle Herausforderungen der Denkmalpflege und darüber hinaus aufmerksam.
In der vorliegenden Arbeit werden die experimentellen Ergebnisse eigener Untersuchungen an unbewehrtem und bewehrtem polymermodifiziertem Beton unter mehrfach wiederholter Druck- und Zugbeanspruchung vorgestellt und mit den Ergebnissen ähnlicher Versuche an Normalbeton und hochfestem Beton verglichen. Besondere Aufmerksamkeit wird dabei dem Formänderungsverhalten, der Steifigkeitsdegradation und der Energiedissipation sowie dem Kriechverhalten und der Mitwirkung des Betons zwischen den Rissen gewidmet. Die beobachtete signifikante Steifigkeitsdegradation sowie der ausgeprägt nichtlineare Zusammenhang zwischen der viskosen Verformung und der elastischen Stauchung zeigen, dass bei der Analyse der Kriech¬aus¬wirkungen des polymermodifizierten Betons auf das Tragverhalten entsprechender Kon¬struktionen neben den Gebrauchslasten auch die während der Lastgeschichte aufgetretenen maximalen Beanspruchungssituationen sowie die damit verbundenen Strukturveränderungen zu berücksichtigen sind. Auf der Basis der Versuchsergebnisse und der visko-elastisch-plastischen Kontinuumsschädigungstheorie werden rheologische Modelle zur Beschreibung des zeit- und beanspruchungsabhängigen Tragverhaltens von Betonbauteile vorgeschlagen. Die numerische Umsetzung der vorgeschlagenen Modelle erfolgt unter Berücksichtigung des zeitabhängigen Materialverhaltens des Betons auf der Basis des HAMILTON-Prinzips unter Vernachlässigung der Trägheitskräfte. Durch eine zeitliche Diskretisierung kann die Problembeschreibung auf das Prinzip von LAGRANGE vom Minimum des Gesamtpotentials zurückgeführt und als nichtlineare Optimierungsaufgabe formuliert werden. Die Simulation des beanspruchungsabhängigen Tragverhaltens von Stahlbetonverbundquerschnitten verdeutlicht die Qualität und Leistungsfähigkeit der vorgeschlagenen Modellbildung.
Die Mahlung als Zerkleinerungsprozess stellt seit den Anfängen der Menschheit eine der wichtigsten Verarbeitungsformen von Materialien aller Art dar - von der Getreidemahlung, über das Aufschließen von Heilkräutern in Mörsern bis hin zur Herstellung von Tonern für Drucker und Kopierer. Besonders die Zementmahlung ist in modernen Gesellschaften sowohl ein wirtschaftlicher als auch ein ökologischer Faktor. Mehr als zwei Drittel der elektrischen Energie der Zementproduktion werden für Rohmehl- und Klinker- bzw. Kompositmaterialmahlung verbraucht. Dies ist nur ein Grund, warum der Mahlprozess zunehmend in den Fokus vieler Forschungs- und Entwicklungsvorhaben rückt. Die Komplexität der Zementmahlung steigt im zunehmenden Maße an. Die simple „Mahlung auf Zementfeinheit“ ist seit langem obsolet. Zemente werden maßgeschneidert, mit verschiedensten Kombinationsprodukten, getrennt oder gemeinsam, in unterschiedlichen Mahlaggregaten oder mit ganz neuen Ansätzen gefertigt. Darüber hinaus gewinnt auch der Sektor des Baustoffrecyclings, mit allen damit verbundenen Herausforderungen, immer mehr an Bedeutung. Bei der Fragestellung, wie der Mahlprozess einerseits leistungsfähige Produkte erzeugen kann und andererseits die zunehmenden Anforderungen an Nachhaltigkeit erfüllt, steht das Mahlaggregat im Mittelpunkt der Betrachtungen. Dementsprechend gliedert sich, neben einer eingehenden Literaturrecherche zum Wissensstand, die vorliegende Arbeit in zwei übergeordnete Teile:
Im ersten Teil werden Untersuchungen an konventionellen Mahlaggregaten mit in der Zementindustrie verwendeten Kernprodukten wie Portlandzementklinker, Kalkstein, Flugasche und Hüttensand angestellt. Um eine möglichst effektive Mahlung von Zement und Kompositmaterialien zu gewährleisten, ist es wichtig, die Auswirkung von Mühlenparametern zu kennen. Hierfür wurde eine umfangreiche Versuchsmatrix aufgestellt und
abgearbeitet. Das Spektrum der Analysemethoden war ebenfalls umfangreich und wurde sowohl auf die gemahlenen Materialien als auch auf die daraus hergestellten Zemente und Betone angewendet. Es konnte gezeigt werden, dass vor allem die Unterscheidung zwischen Mahlkörpermühlen und mahlkörperlosen Mühlen entscheidenden Einfluss auf die Granulometrie und somit auch auf die Zementperformance hat. Besonders stark wurden die Verarbeitungseigenschaften, insbesondere der Wasseranspruch und damit auch das Porengefüge und schließlich Druckfestigkeiten sowie Dauerhaftigkeitseigenschaften der aus diesen Zementen hergestellten Betone, beeinflusst. Bei Untersuchungen zur gemeinsamen Mahlung von Kalkstein und Klinker führten ungünstige Anreicherungseffekte des gut mahlbaren Kalksteins sowie tonigen Nebenbestandteilen zu einer schlechteren Performance in allen Zementprüfungen.
Der zweite Teil widmet sich der Hochenergiemahlung. Die dahinterstehende Technik wird seit Jahrzehnten in anderen Wirtschaftsbranchen, wie der Pharmazie, Biologie oder auch Lebensmittelindustrie angewendet und ist seit einiger Zeit auch in der Zementforschung anzutreffen. Beispielhaft seien hier die Planeten- und Rührwerkskugelmühle als Vertreter genannt. Neben grundlegenden Untersuchungen an Zementklinker
und konventionellen Kompositmaterialien wie Hüttensand und Kalkstein wurde auch die Haupt-Zementklinkerphase Alit untersucht. Die Hochenergiemahlung von konventionellen Kompositmaterialien generierte zusätzliche Reaktivität bei gleicher Granulometrie gegenüber der herkömmlichen Mahlung. Dies wurde vor allem bei per se reaktivem Zementklinker als auch bei latent-hydraulischem Hüttensand beobachtet. Gemahlene Flugaschen konnten nur im geringen Maße weiter aktiviert werden. Der generelle Einfluss von Oberflächenvergrößerung, Strukturdefekten und Relaxationseffekten eines Mahlproduktes wurden eingehend untersucht und gewichtet. Die Ergebnisse bei der Hochenergiemahlung von Alit zeigten, dass die durch Mahlung eingebrachten Strukturdefekte eine Erhöhung der Reaktivität zur Folge haben. Hierbei konnte festgestellt werden, das maßgeblich Oberflächendefekte, strukturelle (Volumen-)defekte und als Konterpart Selbstheilungseffekte die reaktivitätsbestimmenden Faktoren sind. Weiterhin wurden Versuche zur Mahlung von Altbetonbrechsand durchgeführt. Im Speziellen wurde untersucht, inwieweit eine Rückführung von Altbetonbrechsand, als unverwertbarer Teil des Betonbruchs, in Form eines Zement-Kompositmaterials in den Baustoffkreislauf möglich ist. Die hierfür verwendete Mahltechnik umfasst sowohl konventionelle Mühlen als auch Hochenergiemühlen. Es wurden Kompositzemente mit variiertem Recyclingmaterialanteil hergestellt und auf grundlegende Eigenschaften untersucht. Zur Bewertung der Produktqualität wurde der sogenannte „Aktivierungskoeffizient“ eingeführt. Es stellte sich heraus, dass die Rückführung von Altbetonbrechsand als potentielles Kompositmaterial wesentlich vom Anteil des Zementsteins abhängt. So konnte beispielsweise reiner Zementstein als aufgemahlenes Kompositmaterial eine bessere Performance gegenüber dem mit Gesteinskörnung beaufschlagtem Altbetonbrechsand ausweisen. Bezogen auf die gemessenen Hydratationswärmen und Druckfestigkeiten nahm der Aktivierungskoeffzient mit fallendem Abstraktionsgrad ab. Ebenfalls sank der Aktivierungskoeffizient mit steigendem Substitutionsgrad. Als Vergleich wurden dieselben Materialien in konventionellen Mühlen aufbereitet. Die hier erzielten Ergebnisse können teilweise der Hochenergiemahlung als gleichwertig beurteilt werden. Folglich ist bei der Aktivierung von Recyclingmaterialien weniger die Mahltechnik als der Anteil an aktivierbarem Zementstein ausschlaggebend.
Für die Sanierung von Bauwerken werden meist Informationen über die innere Struktur und den Aufbau, Belastungszustände, Feuchte- und Salzgehalte benötigt. Die Untersuchung mit zerstörungsarmen und -freien Methoden minimieren die dazu nötigen Eingriffe. Ebenfalls bieten die ZfP-Verfahren die Möglichkeit, den Erfolg einer Maßnahme zu kontrollieren sowie Prozesse über einen langen Zeitraum zu beobachten (Monitoring). Die vorliegende Arbeit befasst sich mit der zerstörungsfreien Untersuchung von inneren Strukturen und des Aufbaus von Mauerwerk mittels Ultraschall und Radar. Der untersuchte Querschnitt wird tomografisch rekonstruiert. Diese Darstellungsart bietet den Vorteil der Tiefenbestimmung von Objekten und der besseren Visualisierung für Auftraggeber und/oder Laien. Es wurden die Laufzeiten der Longitudinalwellen rekonstruiert. Die Frequenzen der Ultraschalluntersuchungen lagen bei 25 kHz sowie 85 kHz und der Radaruntersuchungen bei 900 MHz sowie 1,5 GHz. Die Rekonstruktion erfolgte mit dem Tomografieprogramm “Geo-Tom“, welches auf der Grundlage des SIRT-Algorithmus arbeitet. Die untersuchten Querschnitte beinhalteten Anomalien bestehend aus Luft, Granit, Holz und Mörtel. Die Abmaße der Anomalien lagen zwischen 10-27 cm bezogen auf einen Querschnitt von 0,76 x 1,0 m. Eine Ortung der Anomalien war möglich, wenn diese eine Laufzeitveränderung von mindestens der Größe des Messfehlers bewirken. Die Größe dieser Laufzeitdifferenz ist abhängig von den Abmaßen der Anomalie und dem Kontrast der elektromagnetischen bzw. akustischen Eigenschaften zwischen Anomalie und umgebenden Material. Eine Aussage über die Größe der Anomalie ist möglich, jedoch kann auf die Form nur bedingt geschlussfolgert werden. Des Weiteren kann durch den Vergleich der beiden Verfahren ein Rückschluss auf die möglichen Materialien der Anomalie gezogen werden.
Zu den Städtebautheorien von R. Unwin bis E. May : Anmerkungen zum geschichtlichen Hintergrund
(1990)
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Zukunftsprobleme und Design
(1990)
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Der Beitrag beschreibt die Entwicklung eines Softwaresystems zur strukturierten Erfassung und Verwaltung bestehender Gebäude in der Architektur. Die Erfassung erfolgt durch die Aufnahme von geometrischen Daten und Sachdaten in unterschiedlichen Abstraktionsstufen unter Einbeziehung einer vorangehenden Dekomposition. Basis für die Entwicklung eines solchen Systems ist die Analyse und Systematik der Erfassungstechniken, -abläufe und der Gegenstand der architektonischen Bestandsaufnahme. Parallel hierzu erfolgt die Bewertung und Nutzung aktueller Techniken und Werkzeuge der applikativen Informatik. Schwerpunkte der Forschungsarbeit sind die Ableitung einer allgemeinen Gebäude- und Bauteilstruktur, die Einbeziehung aktueller informationstechnischer Verfahren und Werkzeuge und die Entwicklung eines entsprechenden Experimentalsystems. Auf eine Auswahl softwaretechnischer Entwicklungen wird näher eingegangen (objektspezifische Eigenschaften, flexible Geometrieerfassung und Benutzeroberflächen).
Die Festigkeitsentwicklung des Zementbetons basiert auf der chemischen Reaktion des Zementes mit dem Anmachwasser. Durch Nachbehandlungsmaßnahmen muss dafür gesorgt werden, dass dem Zement genügend Wasser für seine Reaktion zur Verfügung steht, da sonst ein Beton mit minderer Qualität entsteht. Die vorliegende Arbeit behandelt die grundsätzlichen Fragen der Betonnachbehandlung bei Anwendung von Straßenbetonen. Im Speziellen wird die Frage des erforderlichen Nachbehandlungsbedarfs von hüttensandhaltigen Kompositzementen betrachtet. Die Wirkung der Nachbehandlung wird anhand des erreichten Frost-Tausalz-Widerstandes und der Gefügeausbildung in der unmittelbaren Betonrandzone bewertet. Der Fokus der Untersuchungen lag auf abgezogenen Betonoberflächen. Es wurde ein Modell zur Austrocknung des jungen Betons erarbeitet. Es konnte gezeigt werden, dass in einer frühen Austrocknung (Kapillarphase) keine kritische Austrocknung der Betonrandzone einsetzt, sondern der Beton annährend gleichmäßig über die Höhe austrocknet. Es wurde ein Nomogramm entwickelt, mit dem die Dauer der Kapillarphase in Abhängigkeit der Witterung für Straßenbetone abgeschätzt werden kann. Eine kritische Austrocknung der wichtigen Randzone setzt nach Ende der Kapillarphase ein. Für Betone unter Verwendung von Zementen mit langsamer Festigkeitsentwicklung ist die Austrocknung der Randzone nach Ende der Kapillarphase besonders ausgeprägt. Im Ergebnis zeigen diese Betone dann einen geringen Frost-Tausalz-Widerstand. Mit Zementen, die eine 2d-Zementdruckfestigkeit ≥ 23,0 N/mm² aufweisen, wurde unabhängig von der Zementart (CEM I oder CEM II/B-S) auch dann ein hoher Frost-Tausalz-Widerstand erreicht, wenn keine oder eine schlechtere Nachbehandlung angewendet wurde. Für die Praxis ergibt sich damit eine einfache Möglichkeit der Vorauswahl von geeigneten Zementen für den Verkehrsflächenbau. Betone, die unter Verwendung von Zementen mit langsamere Festigkeitsentwicklung hergestellt werden, erreichen einen hohen Frost-Tausalz-Widerstand nur mit einer geeigneten Nachbehandlung. Die Anwendung von flüssigen Nachbehandlungsmitteln (NBM gemäß TL NBM-StB) erreicht eine ähnliche Wirksamkeit wie eine 5 tägige Feuchtnachbehandlung. Voraussetzung für die Wirksamkeit der NBM ist, dass sie auf eine Betonoberfläche ohne sichtbaren Feuchtigkeitsfilm (feuchter Glanz) aufgesprüht werden. Besonders wichtig ist die Beachtung des richtigen Auftragszeitpunktes bei kühler Witterung, da hier aufgrund der verlangsamten Zementreaktion der Beton länger Anmachwasser abstößt. Ein zu früher Auftrag des Nachbehandlungsmittels führt zu einer Verschlechterung der Qualität der Betonrandzone. Durch Bereitstellung hydratationsabhängiger Transportkenngrößen (Feuchtetransport im Beton) konnten numerische Berechnungen zum Zusammenspiel zwischen der Austrocknung, der Nachbehandlung und der Gefügeentwicklung durchgeführt werden. Mit dem erstellten Berechnungsmodell wurden Parameterstudien durchgeführt. Die Berechnungen bestätigen die wesentlichen Erkenntnisse der Laboruntersuchungen. Darüber hinaus lässt sich mit dem Berechnungsmodell zeigen, dass gerade bei langsam reagierenden Zementen und kühler Witterung ohne eine Nachbehandlung eine sehr dünne Randzone (ca. 500 µm – 1000 µm) mit stark erhöhter Kapillarporosität entsteht.
Seit Anfang der 80er Jahre stehen Zusatzmittel (engl. Shrinkage Reducing Admixture – SRA) der bauchemischen Industrie zur Verfügung, die das Schwinden von Zementstein und Beton reduzieren können. In der vorliegenden Arbeit wurden die Wirkungsmechanismen schwindreduzierender Zusatzmittel (SRA) und darin enthaltener Wirkstoffe in Zementstein systematisch untersucht. Es hat sich gezeigt, dass das autogene Schwinden von Zementstein wurde durch handelsübliche Schwindreduzierer und darin enthaltene Wirkstoffe im Alter von einem halben Jahr um bis zu 77 % reduziert. Durch Schwindreduzierer wurden in Bezug auf die jeweiligen Referenzproben ohne SRA die Anteile an Gelporen im Zementstein erhöht und die Anteile an Kapillarporen verringert. Gleichzeitig stellte sich in den Zementsteinen mit Schwindreduzierer bzw. den darin enthaltenen Wirkstoffen bei konservierender Lagerung eine höhere innere Ausgleichsfeuchte ein als in den jeweiligen Referenzproben ohne SRA. Die bisherige Annahme, die Abminderung des Schwindens durch SRA sei nur auf die Reduzierung der Oberflächenspannung der Porenlösung zurückzuführen, ist nur bedingt zutreffend. Während der Hydratation des Zements wird Wasser verbraucht und in Hydratphasen eingebaut. Hierbei reichern sich die SRA-Moleküle in der Porenlösung des Zementsteins an und verstärken die Spaltdruckwirkung der Porenlösung zwischen den Gelpartikeln. Dadurch wird das autogene Schwinden des Zementsteins vermindert.
Neben dem Schwerpunkt der Verflüssigung werden auch Zusatzmittel benötigt, die extrem lange Verarbeitbarkeitszeiten des Betons ermöglichen. Eine neue Wirkungsgruppe, durch die Verarbeitbarkeitszeiten von über 90 Stunden er-reicht werden können, sind Langzeitverzögerer (LVZ) auf der Basis von Phosphonsäure. In systematischen Versuchen wurden grundlegende Erkenntnisse über die Wirkungsmechanismen von LVZ auf die Hydratation gewonnen. Es hat sich gezeigt, dass die verzögernde Wirkung von LVZ auf die Bildung von schwer löslichem Calciumphosphonat zurückzuführen ist, welches die Partikeloberflächen žabdichtetœ. Vom Angebot an gelöstem Calcium hängt es ab, ob sich das žabdichtendeœ Calciumphosphonat direkt bildet oder ob durch den Calciumanspruch des LVZ eine kurzzeitig verstärkte Hydratation reaktiver Klin-kerphasen hervorgerufen wird. Sulfatoptimierte Zemente wiesen aufgrund der Anteile an Sulfatträger genüge! nd Calcium-Ionen für eine sofortige Bildung von Calciumphosphonat auf. In Verbindung mit der Bildung von primärem Ettringit bildet die Sulfatträgeroptimierung die Grundlage für die erwünschte Wirkungsweise des Zusatzmittels.
Es wird gezeigt, daß zur Aufstellung eines korrekten Momentengleichgewichts nach Theorie zweiter Ordnung für Querkräfte die Hebelarme des unverformten Systems und für Normalkräfte Hebelarme des verformten Systems zu benutzen sind. Im Allgemeinen ist es aber nicht möglich, die Knotenverformungen eines Rahmens in relevante und nicht relevante Anteile zu zerlegen, so daß ein Momentengleichgewicht bei Berechnungen nach Theorie zweiter Ordnung im Allgemeinen nicht sinnvoll ist.
Im Vortrag wird der Frage nachgegangen, inwieweit zwischen den strukturellen Parametern Dispersion eines Verkehrsnetzes bzw. der Kennziffer der Unterentwicklung eines Verkehrsnetzes und den mittleren Fahrzeiten bzgl. unterschiedlicher Verkehrsbedarfsmatrizen ein Zusammenhang besteht. An Hand von 10 verschiedenen Ring-Radius-Strukturen für den MIV (Motorisierter Individual-Verkehr) und 3 verschiedenen Ring-Radius-Strukturen für den Busverkehr wird bei 5 unterschiedlichen O-D-Bedarfsmatrizen der Nachweiß eines solchen Zusammenhanges geführt. Die Ergebnisse erlauben es, auf Grund struktureller Analysen Aussagen über funktionelle Bewertungen des Verkehrsnetzes zu treffen. Da strukturelle Bewertungen mit wesentlich geringerem Aufwand an Input-Daten und an Rechenzeit als funktionelle Bewertungen bestimmbar sind, bringt dies deutliche Einsparungen in der Planungsphase von Verkehrsnetzen mit sich.
Ziel der Arbeit ist es, das Arbeitsgebiet der Ökotechnologie durch die praxisbezogene Prüfung von ökologischen Prinzipien und ihre Umsetzung im Rahmen des Optimalitätsprinzips zur Prozess- und Verfahrensentwicklung weiter zu fundieren. Das soll auch dazu beitragen, Entscheidungen für die Gestaltung von stoffwandelnden Prozessen sowie deren Einbindung in gesamtgesellschaftliche Prozesse auf einer nachhaltigkeitsbezogenen richigen objektiven Basis und unter jeweiliger Abwägung von Aufwand und Nutzen , gemessen an dem ausgewählten Zielkriterium, zu treffen.
Seit mehr als fünfzig Jahren werden zur Untersuchung der Tragwerkssicherheit auch Methoden der Wahrscheinlichkeitsrechnung herangezogen. Ungeachtet der inzwischen erreichten Fortschritte und der offensichtlichen Vorzüge, konnte dieses Vorgehen in der Praxis bis jetzt noch nicht ausreichend Fuß fassen. Im Beitrag wird das Problem der Tragwerkssicherheit mit einem neuartigen Verfahren behandelt. Im Unterschied zu den üblichen probabilistischen Methoden geht es nicht von Verteilungsfunktionen aus. Vielmehr werden die maßgebenden Zufallsgrößen in den Mittelpunkt gestellt und direkt in die Rechenvorschrift eingeführt. Als mathematisches Hilfsmittel dienen die WIENERschen Chaos-Polynome. Sie stellen im Raum der Zufallsgrößen mit beschränkter Varianz eine Basis dar, mit der sich eine beliebige Zufallsgröße nach orthogonalen Polynomen GAUSSscher Zufallsgrößen entwickeln läßt. So entsteht ein effektiver Formalismus, der sich eng an die herkömmliche Deformationsmethode anlehnt und als deren probabilistische Verallgemeinerung angesprochen werden darf. Die Methode liefert die Grenzzustandsbedingung als Funktion der auf das Tragwerk wirkenden Zufallsgrößen. Die Versagenswahrscheinlichkeit kann daher durch Monte-Carlo-Simulation bestimmt werden. Die mit der Auswertung des Wahrscheinlichkeitsintegrals der First Order Reliability Method (FORM) verbundenen Schwierigkeiten werden vermieden. An einem Beispieltragwerk wird dargestellt, wie sich Veränderungen gewisser Konstruktionsparameter auf die Versagenswahrscheinlichkeit auswirken.
Es wird gezeigt, daß im allgemeinen die Zeichnungsinhalte von Entwurfsplänen im konstruktiven Ingenieurbau in Teilzeichnungen zerlegt werden können, denen fachspezifische Objekte des Bauwesen entsprechen. Solche Objekte sind beispiels- weise Querschnitte, Träger, Stützen und Fundamente. Diese Teilobjekte werden durch eine unterschiedliche Anzahl von Parametern festgelegt werden. Wählt man für diese Parameter die entsprechendnen Fachbegriffe, so hat man durch diese die Möglichkeit die Teilobjekte auch in Datenbanken zu speichern. Neben den Sachparametern müssen auch zeichnungs- technische Werte, wie Maßstab, gewählte Längeneinheiten (m,cm..) und Einsatzpunkt - für die Lage des Teilobjektes im Gesamtplan - gespeichert werden. Zeichenmodule für jedes Teilobjekt können dann bei Aufruf eines bestimmten Planes aus den Daten der Datenbank die Teilzeichnungen generieren, sodaß eine Planspeicherung in der übliche Speicherform (Speicherelemente Punkt, Linie usw.) nicht mehr erforderlich ist. Neben der reinen Darstellung können die Programmodule auch dahingehend erweitert werden, daß auch die zugehörigen Berechnungen durchgeführt werden. Die numerischen Ergebnisse wie auch die Eingabewerte werden in einem alfanumerischen Dokument abgelegt. Damit ergibt sich dann ein Konstruktionsystem für den Entwurf, das insbesondere die Berechnung von Varianten sehr erleichertert. In Sonderfällen können auch die Pläne in ein Standard CAD Programm eingelesen werden, um allfällige Besonderheiten interaktiv zu ergänzen. Das relationale Modell wird weiters vorgestellt, nach dem die Zeichnungsinhalte gespeichert werden. Neben reinen Teilobjektsätzen werden auch Tabellensätze verwendet, um unter einem Namen mehrere numersiche Daten verwalten zu können. Es werden auch sogenannte Fort- setzungssätze besprochen, die in Entsprechung der stark unterschiedlichen Anzahl der Objektattibute verwendet werden.
Wirklichkeitsnahe Erfassung und Beschreibung des Trag- und Verformungsverhaltens von Strukturen baulicher Anlagen hat in den letzten Jahrzehnten ständig an Bedeutung gewonnen. Konstruktionen im Hoch- und Industriebau werden zunehmend multifunktional genutzt - die >Grenzen< zwischen Bauwerk und Tragwerk, zwischen Hüll- und Tragkonstruktion lösen sich auf. Werden raumabschließende Elemente (Wände, Decken, Dächer) gleichzeitig als Tragelemente und wärme- und schalldämmende Konstruktionen ausgeführt, so entstehen beispielsweise Sandwichplatten, deren Schichten sehr stark differierende Materialeigenschaften aufweisen. Beim Aufbau des FEM-Modells für vielschichtige Schalen können die Formänderungshypothesen für jede Schicht einzeln als auch für die Schale insgesamt gegeben werden. Im ersten Fall ist der Knotenfreiheitsgrad von der Schichtenzahl abhängig, im zweiten Fall nicht. Im weiteren wird eine Formänderungshypothese für das Schichtenpaket angenommen. Ausgegangen wird von den Gleichungen der 3D-Elastizitätstheorie. Die Berücksichtigung der Querkraftschubverformungen ergibt die Möglichkeit einer adäquaten Beschreibung der Verformungen sowohl dünner Schalen als auch von Schalen mittlerer Dicke; die Berechnung der Krümmungen und der LAMEschen Parameter der Bezugsfläche zu umgehen, was für komplizierte Schalenformen eine selbständige Aufgabe ist; eines natürlichen Übergangs von homogenen zu geschichteten Schalen. Das vielschichtige isoparametrische Schalen-FE wird vorgestellt, seine Implementierung in das in Entwicklung befindliche Programmsystem SLANG wird vorbereitet.
In diese Veröffentlichung werden die Kennziffern dargestellt, die zur Beurteilung der Struktur von Verkehrsnetzen behilflich sein können. Zu diesem Zweck wurde die Graphentheorie angewendet. Eine erste Gruppe von Bewertungen stützt sich auf die Anzahl der Knoten und Bögen des Netzes. Detailliertere Informationen über Engpässe oder Schwachstellen im Verkehrsnetz erhält man durch die Analyse der Kantenzusammenhangs. Die Unabhängigkeit der einzelnen Verkehrsarten , ihre Bewertung und Maßnahmen, sie zu verbessern werden vorgeschlagen und diskutiert. Weiteren Untersuchungen werden angeregt.
Die Beurteilung des Beanspruchungsgrades während eines Versuchs zur experimentellen Tragsicherheitsbewertung erfolgt auf Grundlage der zeitgleich dargestellten Beanspruchungs-Verformungsbeziehung. Für ein frühzeitiges Erkennen von Strukturveränderungen (Rißbildung/Plastizierung) eignen sich jedoch insbesondere Energiebetrachtungen während der verschiedenen Versuchsphasen, da diese das Zusammenspiel von Einwirkung und Tragwerksreaktion vollständig widerspiegeln und auch geringe irreversible Strukturänderungen immer mit Energiedissipation verbunden sind. In der Arbeit wird der Versuchsgrenzlastindikator deltaS (normierte Strukturveränderungsenergie) vorgestellt. Dieser Parameter erfaßt nur die bei Belastungsversuchen interessanten Strukturveränderungen und ermöglicht damit eine objektive Beurteilung des eingereichten Beanspruchungsgrades und eine zuverlässige Identifikation der Versuchsgrenzlast. Anhand von Versuchen im Labor und am realen Bauwerk wird die Anwendung des Indikators erläutert und seine Eignung nachgewiesen.