Refine
Document Type
- Conference Proceeding (132)
- Doctoral Thesis (15)
- Article (7)
- Master's Thesis (7)
- Report (4)
- Diploma Thesis (3)
- Preprint (3)
- Book (1)
- Part of a Book (1)
Institute
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (93)
- Institut für Strukturmechanik (ISM) (16)
- Professur Baubetrieb und Bauverfahren (10)
- Professur Angewandte Mathematik (6)
- Institut für Europäische Urbanistik (5)
- Junior-Professur Augmented Reality (5)
- Professur Stahlbau (5)
- Institut für Konstruktiven Ingenieurbau (IKI) (4)
- Professur Informatik in der Architektur (4)
- Professur Computergestütztes kooperatives Arbeiten (3)
Keywords
Year of publication
- 2006 (173) (remove)
Am Beispiel eines 3-feldrigen Durchlaufträgers wird die Versagenswahrscheinlichkeit von wechselnd belasteten Stahlbetonbalken bezüglich des Grenzzustandes der Adaption (Einspielen, shakedown) untersucht. Die Adaptionsanalyse erfolgt unter Berücksichtigung der beanspruchungschabhängigen Degradation der Biegesteifigkeit infolge Rissbildung. Die damit verbundene mechanische Problemstellung kann auf die Adaptionsanalyse linear elastisch - ideal plastischer Balkentragwerke mit unbekannter aber begrenzter Biegesteifigkeit zurückgeführt werden. Die Versagenswahrscheinlichkeit wird unter Berücksichtigung stochastischer Tragwerks- und Belastungsgrößen berechnet. Tragwerkseigenschaften und ständige Lasten gelten als zeitunabhängige Zufallsgrößen. Zeitlich veränderliche Lasten werden als nutzungsdauerbezogene Extremwerte POISSONscher Rechteck-Pulsprozesse unter Berücksichtigung zeitlicher Überlagerungseffekte modelliert, so dass die Versagenswahrscheinlichkeit ebenfalls eine nutzungsdauerbezogene Größe ist. Die mechanischen Problemstellungen werden numerisch mit der mathematischen Optimierung gelöst. Die Versagenswahrscheinlichkeit wird auf statistischem Weg mit der Monte-Carlo-Methode geschätzt.
Für eine gesicherte Planung im Bestand, sind eine Fülle verschiedenster Informationen zu berücksichtigen, welche oft erst während des Planungs- oder Bauprozesses gewonnen werden. Voraussetzung hierfür bildet immer eine Bestandserfassung. Zwar existieren Computerprogramme zur Unterstützung der Bestandserfassung, allerdings handelt es sich hierbei ausschließlich um Insellösungen. Der Export der aufgenommenen Daten in ein Planungssystem bedingt Informationsverluste. Trotz der potentiellen Möglichkeit aktueller CAAD/BIM Systeme zur Verwaltung von Bestandsdaten, sind diese vorrangig für die Neubauplanung konzipiert. Die durchgängige Bearbeitung von Sanierungsprojekten von der Erfassung des Bestandes über die Entwurfs- und Genehmigungsplanung bis zur Ausführungsplanung innerhalb eines CAAD/BIM Systems wird derzeit nicht adäquat unterstützt. An der Professur Informatik in der Architektur (InfAR) der Fakultät Architektur der Bauhaus-Universität Weimar entstanden im Rahmen des DFG Sonderforschungsbereich 524 "Werkzeuge und Konstruktionen für die Revitalisierung von Bauwerken" in den letzten Jahren Konzepte und Prototypen zur fachlich orientierten Unterstützung der Planung im Bestand. Der Fokus lag dabei in der Erfassung aller planungsrelevanter Bestandsdaten und der Abbildung dieser in einem dynamischen Bauwerksmodell. Aufbauend auf diesen Forschungsarbeiten befasst sich der Artikel mit der kontextbezogenen Weiterverwendung und gezielten Bereitstellung von Bestandsdaten im Prozess des Planens im Bestand und der Integration von Konzepten der planungsrelevanten Bestandserfassung in marktübliche CAAD/BIM Systeme.
Die Arbeit beschäftigt sich mit der Entstehung eines ökonomischen Kraftmaßes am Beispiel der Maschine von Marly im Zeitraum von ca. 1680 bis 1840. Die Leitthese der Dissertation besagt, dass vom 17. zum 19. Jahrhundert eine grundlegende Transformation des Maschinenbegriffs stattfand, die als Übergang vom Substanzbegriff zum Funktionsbegriff der Maschine bezeichnet werden kann. Im 17. Jahrhundert wurden mechanische Apparate als in sich geschlossene, selbstbezügliche Strukturen aufgefasst. Als anschaulich erfahrbare Objekte konnten sie als Bildgeber dienen, die mittels des Verfahrens der Strukturanalogie Erklärungsmuster für verschiedenste Phänomene (Körper, Staat, Welt) boten. Demzufolge galten sie als selbstevident: sie waren erklärend und mussten selbst nicht erklärt werden. Ihr etwaiger Zweck und ihre Einbettung in gesellschaftliche Zusammenhänge spielten dabei keine Rolle. Wie anhand der Beschreibungen und Darstellungen aus jener Zeit nachgewiesen werden kann, wurde die Maschine von Marly innerhalb dieser Episteme als architektonisches Objekt wahrgenommen, bei dem vor allem das Zusammenspiel der einzelnen Elemente Aufmerksamkeit erregte. Wie andere Maschinen auch stand sie unter dem Primat der Sichtbarkeit. Man war davon überzeugt, dass die Eigenschaften einer Maschine von der strukturellen Anordnung ihrer Bauteile abhingen und glaubte, ihre Qualität an ihrer Gestalt ablesen zu können. Ab der Mitte des 18. Jahrhunderts tauchte die Maschine von Marly in den Schriften physiokratischer Autoren auf. Zuerst diente sie dort als Beispiel für die Verschwendungssucht Louis’ XIV. und als Metapher für eine schlechte Einrichtung des Staates. Doch zunehmend begann man, sie auch in ihrer Faktizität als technisch-politisches Objekt zu begreifen. Man kritisierte ihre aktuelle Nutzung und schlug andere Möglichkeiten ihrer Verwendung vor, etwa die Bewässerung von Feldern oder die städtische Trinkwasserversorgung. Damit war die Maschine von Marly nicht länger ein Modell für die Einrichtung des Staates, das nur am Maßstab der immanenten Perfektion beurteilt werden konnte. Vielmehr war sie nun ein Instrument der Regierung, das sich als Teil eines staatlich verfassten Gemeinwesens verantworten musste. Als solches wurde sie auch zu einem bevorzugten Gegenstand aufklärerischer Reformprojekte. Das zeigt sich besonders deutlich am Wettbewerb, den die Pariser Akademie der Wissenschaften 1784-1786 organisiert hatte und der Vorschläge zur Verbesserung oder Ersetzung der Maschine von Marly zum Gegenstand hatte. Die Auswertung der mehr als 100 eingereichten Projekte und Memoranden ermöglicht einen einzigartigen Blick auf die Hoffnungen und Wünsche, die Ende des 18. Jahrhunderts an die Erfindung technischer Geräte gekoppelt waren. Um 1800 kann man die allmähliche Entstehung eines Funktionsbegriffs der Maschine bemerken. Lazare Carnots Essai sur les machines en général, der eine in der Sprache der Algebra artikulierte Definition der Maschine beinhaltete, trug maßgeblich dazu bei, die Anschaulichkeit zugunsten eines operativen Symbolismus zu delegitimieren. Erst dadurch war die Formulierung eines Effizienzkalküls möglich. Ergänzt wurde diese Formalisierung durch den Diskurs der Industrialisierung, in dem technische Apparate zunehmend als Produktionsmittel verstanden wurden. Die Maschine von Marly war ein wichtiger Schauplatz für die Entstehung eines ökonomischen Kraftmaßes. Nicht nur wurden dort Experimente mit verschiedenen Messinstrumenten (Dynamometern) durchgeführt, auch diente sie Joseph Montgolfier als Beispiel um zu beweisen, dass Kraft als Geldwert ausgedrückt werden könne. In den ersten Jahrzehnten des 19. Jahrhundert wurden Maschinen schließlich relational als Positionen innerhalb eines nationalen Produktionssystems definiert. Sie galten als Krafttransformatoren, bei denen ein bestimmter Input von ‚force motrice’ einen entsprechenden Output von ‚travail utile’ ergeben würde. Ihre vornehmlichste Aufgabe war die möglichst effiziente Ausnutzung der Kraftressourcen. Den vorläufigen Endpunkt erreichte die Entstehung des ökonomischen Kraftmaßes um 1830 mit der Formulierung des Begriffs der ‚mechanischen Arbeit’.
Image processing has been much inspired by the human vision, in particular with regard to early vision. The latter refers to the earliest stage of visual processing responsible for the measurement of local structures such as points, lines, edges and textures in order to facilitate subsequent interpretation of these structures in higher stages (known as high level vision) of the human visual system. This low level visual computation is carried out by cells of the primary visual cortex. The receptive field profiles of these cells can be interpreted as the impulse responses of the cells, which are then considered as filters. According to the Gaussian derivative theory, the receptive field profiles of the human visual system can be approximated quite well by derivatives of Gaussians. Two mathematical models suggested for these receptive field profiles are on the one hand the Gabor model and on the other hand the Hermite model which is based on analysis filters of the Hermite transform. The Hermite filters are derivatives of Gaussians, while Gabor filters, which are defined as harmonic modulations of Gaussians, provide a good approximation to these derivatives. It is important to note that, even if the Gabor model is more widely used than the Hermite model, the latter offers some advantages like being an orthogonal basis and having better match to experimental physiological data. In our earlier research both filter models, Gabor and Hermite, have been developed in the framework of Clifford analysis. Clifford analysis offers a direct, elegant and powerful generalization to higher dimension of the theory of holomorphic functions in the complex plane. In this paper we expose the construction of the Hermite and Gabor filters, both in the classical and in the Clifford analysis framework. We also generalize the concept of complex Gaussian derivative filters to the Clifford analysis setting. Moreover, we present further properties of the Clifford-Gabor filters, such as their relationship with other types of Gabor filters and their localization in the spatial and in the frequency domain formalized by the uncertainty principle.
The one-dimensional continuous wavelet transform is a successful tool for signal and image analysis, with applications in physics and engineering. Clifford analysis offers an appropriate framework for taking wavelets to higher dimension. In the usual orthogonal case Clifford analysis focusses on monogenic functions, i.e. null solutions of the rotation invariant vector valued Dirac operator ∂, defined in terms of an orthogonal basis for the quadratic space Rm underlying the construction of the Clifford algebra R0,m. An intrinsic feature of this function theory is that it encompasses all dimensions at once, as opposed to a tensorial approach with products of one-dimensional phenomena. This has allowed for a very specific construction of higher dimensional wavelets and the development of the corresponding theory, based on generalizations of classical orthogonal polynomials on the real line, such as the radial Clifford-Hermite polynomials introduced by Sommen. In this paper, we pass to the Hermitian Clifford setting, i.e. we let the same set of generators produce the complex Clifford algebra C2n (with even dimension), which we equip with a Hermitian conjugation and a Hermitian inner product. Hermitian Clifford analysis then focusses on the null solutions of two mutually conjugate Hermitian Dirac operators which are invariant under the action of the unitary group. In this setting we construct new Clifford-Hermite polynomials, starting in a natural way from a Rodrigues formula which now involves both Dirac operators mentioned. Due to the specific features of the Hermitian setting, four different types of polynomials are obtained, two types of even degree and two types of odd degree. These polynomials are used to introduce a new continuous wavelet transform, after thorough investigation of all necessary properties of the involved polynomials, the mother wavelet and the associated family of wavelet kernels.
In earlier research, generalized multidimensional Hilbert transforms have been constructed in m-dimensional Euclidean space, in the framework of Clifford analysis. Clifford analysis, centred around the notion of monogenic functions, may be regarded as a direct and elegant generalization to higher dimension of the theory of the holomorphic functions in the complex plane. The considered Hilbert transforms, usually obtained as a part of the boundary value of an associated Cauchy transform in m+1 dimensions, might be characterized as isotropic, since the metric in the underlying space is the standard Euclidean one. In this paper we adopt the idea of a so-called anisotropic Clifford setting, which leads to the introduction of a metric dependent m-dimensional Hilbert transform, showing, at least formally, the same properties as the isotropic one. The Hilbert transform being an important tool in signal analysis, this metric dependent setting has the advantage of allowing the adjustment of the co-ordinate system to possible preferential directions in the signals to be analyzed. A striking result to be mentioned is that the associated anisotropic (m+1)-dimensional Cauchy transform is no longer uniquely determined, but may stem from a diversity of (m+1)-dimensional "mother" metrics.
The contribution focuses on the development of a basic computational scheme that provides a suitable calculation environment for the coupling of analytical near-field solutions with numerical standard procedures in the far-field of the singularity. The proposed calculation scheme uses classical methods of complex function theory, which can be generalized to 3-dimensional problems by using the framework of hypercomplex analysis. The adapted approach is mainly based on the factorization of the Laplace operator EMBED Equation.3 by the Cauchy-Riemann operator EMBED Equation.3 , where exact solutions of the respective differential equation are constructed by using an orthonormal basis of holomorphic and anti-holomorphic functions.
Heutige Methoden zur Soll-Spezifikation von Bauleistungen (Kostenermittlung und zeitliche Ablaufplanung) gehen von einer abstrahierten und vereinfachten Betrachtung der Zusammenhänge bei Bauprojekten aus. Leistungsverzeichnisse, Kostenermittlungen und Bauzeitpläne orientieren sich nur indirekt an der Geometrie des Bauwerks und der Baustelle. Die dabei verwendeten Medien wie Papier, 2D-Dateien, digitale Leistungsbeschreibungen oder 3D-Darstellungen lassen die Suche nach Informationen auf der Baustelle zu einem zeitaufwändigen und in Anbetracht existierender Medientechnologien ineffizienten Prozess werden. Interaktive virtuelle Umgebungen erlauben die Auflösung starrer Zusammenhänge durch interaktive Eingriffe des Anwenders und visualisieren komplexe bauproduktionstechnische Vorgänge. Das Konzept der visuellen interaktiven Simulation der Bauproduktion sieht vor, die Soll-Spezifikation anhand eines interaktiven 3D-Modells zu entwickeln, um räumliche Veränderungen und parallele Prozesse auf der virtuellen Baustelle im Rahmen der Entscheidungsfindung zum Bauablauf besser berücksichtigen zu können. Verlangt man einen hohen Grad an Interaktivität mit dem 3D-Modell, dann bieten sich Computerspieltechnologien sehr gut zu Verifikationszwecken an. Die visuelle interaktive Simulation der Bauproduktion ist damit als eine 3D-modellbasierte Methode der Prozessmodellierung zu verstehen, die Entscheidungen als Input benötigt und die Kostenermittlung sowie die zeitliche Ablaufplanung als Output liefert.
Virtual studio technology plays an important role for modern television productions. Blue-screen matting is a common technique for integrating real actors or moderators into computer generated sceneries. Augmented reality offers the possibility to mix real and virtual in a more general context. This article proposes a new technological approach for combining real studio content with computergenerated information. Digital light projection allows a controlled spatial, temporal, chrominance and luminance modulation of illumination – opening new possibilities for TV studios.