Refine
Document Type
- Conference Proceeding (38)
- Article (22)
- Doctoral Thesis (16)
- Part of a Book (10)
- Bachelor Thesis (8)
- Master's Thesis (3)
- Book (2)
- Periodical (2)
- Study Thesis (2)
- Habilitation (1)
Institute
- Graduiertenkolleg 1462 (19)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (19)
- Institut für Strukturmechanik (ISM) (18)
- Universitätsbibliothek (11)
- Professur Bauphysik (8)
- Professur Informatik in der Architektur (6)
- F. A. Finger-Institut für Baustoffkunde (FIB) (4)
- An-Institute (2)
- Institut für Europäische Urbanistik (2)
- Professur Bauchemie und Polymere Werkstoffe (2)
Keywords
- Angewandte Mathematik (50)
- Angewandte Informatik (36)
- Computerunterstütztes Verfahren (36)
- Strukturmechanik (14)
- Elektronisches Buch (7)
- Bauphysik (3)
- Bibliothek (3)
- E-Book-Reader (3)
- Urheberrecht (3)
- Architektur (2)
Year of publication
- 2012 (105) (remove)
Die thermochemische Wärmespeicherung über reversible Salzhydratation stellt einen aussichtsreichen Weg zur Speicherung von Niedertemperaturwärme, wie z.B. solarer Energie, dar.
Untersuchungen an Magnesiumsulfat-Hydraten zeigen, dass das bei 130°C entwässerte Magnesiumsulfat-Heptahydrat seinen thermodynamisch stabilen Endzustand während der Reaktion mit gasförmigem Wasser nicht wieder erreicht. Um diese kinetische Hemmung zu überwinden und den Einfluss von unterschiedlichen Porenräumen auf die Hydratation bzw. Sorption des Magnesiumsulfates zu charakterisieren, wurde das Magnesiumsulfat in Trägermaterialien auf Basis offenporiger Gläser mit durchschnittlichen Porendurchmessern von 4 nm bis 1,4 µm eingebracht und diese Kompositmaterialien untersucht. Dabei ist festgestellt worden, dass jede salzbezogene Sorptionswärme im Porenraum höher ist, als die des ungeträgerten Salzes und mit kleiner werdendem Porenradius weiter zunimmt.
Weiterhin wurden Teile des Magnesiumsulfates mit niedrig deliqueszierenden Salzen substituiert, um die Wasseraufnahme und somit die Wärmespeicherkapazität zu erhöhen. Dies stellt einen neuen Weg zur Herstellung von Kompositmaterialien dar, über den man Eigenschaften wie Deliqueszenzfeuchte und Desorptionstemperatur einstellen und an die Sorptionsbedingungen eines Speichers anpassen kann. Als niedrig deliqueszierende Salze wurden Magnesiumchlorid und Lithiumchlorid
als Zusätze untersucht, wobei ein Ansteigen der Sorptionswärme und Wasseraufnahme mit steigendem Chloridanteil festgestellt wurde. Aufgrund der geringeren Deliqueszenzfeuchte des Lithiumchlorides gegenüber dem Magnesiumchlorid wurden bei gleichen Massenverhältnissen höhere Sorptionswärmen erzielt. Untersuchungen zu Zinksulfat in Verbindung mit Chloriden bescheinigen diesem Salz -speziell bei tieferen Entwässerungstemperaturen- eine gute Eignung als Aktivstoff zur Wärmespeicherung.
Zusammenfassend konnte festgestellt werden, dass sich die Wärmespeicherkapazitäten über die Porengröße, in die das Salz eingebracht wird, und die gewählte Mischungszusammensetzung steuern lassen. Die gemessenen Sorptionswärmen ermöglichen insbesondere bei niedrigen Sorptionstemperaturen und hohen Luftfeuchtigkeiten den Schluss, dass die Verwendung von Salzmischungen als Aktivkomponente in Kompositmaterialien einen geeigneten Weg zur thermochemischen Speicherung solarer Wärme (≤130 °C) darstellt.
Architektonisches Entwerfen ist ein kreativer Prozess, der eine Lösung hervorbringt, die in ihrer Form und ihrer Funktionalität so noch nicht bestand. Resultat eines architektonischen Entwurfes ist ein Original, dessen Entstehen eine schöpferische Komponente erfordert. Dieser kreative Prozess ist nicht systematisierbar und kann auch nicht als Methode wiederholbar gemacht werden. Im Rahmen der architektonischen Lehre ist die Vermittlung von Methoden zur Entwurfsfindung jedoch ein wesentlicher Aspekt. Der hier vorgestellte Entwurf möchte zeigen, dass der Auffassung, allein intuitive Methoden als Entwurfsgrundlage zu nutzen, die Auffassung entgegen steht, eine reglementierte Methode zur Entwurfs- und Formfindung anzuwenden.
Eine solche reglementierte Methode wird hierbei als Entwurfsgrammatik bezeichnet.
In den 1950er Jahren entstehen zwei revolutionäre Werke des Komponisten und Architekten Iannis Xenakis: die Komposition Metastaseis und der Philips-Pavillon für die Weltausstellung in Brüssel. Basierend auf diesen Arbeiten wird eine Methode vorgestellt, welche musikalische Parameter in architektonischen Parameter transformiert.
Diese Methode bildet die Grundlage für ein exaktes räumliches Transformation-Modell, welches aus mathematischen Funktionen abgeleitet ist. Dabei weißt das Transformations-Modell eine starke Ähnlichkeit mit der Architektur des Pavillons auf.
Die im vorliegenden Buch dokumentierten Untersuchungen befassen sich mit der Entwicklung von Methoden zur algorithmischen Lösung von Layoutaufgaben im architektonischen Kontext. Layout bezeichnet hier die gestalterisch und funktional sinnvolle Anordnung räumlicher Elemente, z.B. von Parzellen, Gebäuden, Räumen auf bestimmten Maßstabsebenen. Die vorliegenden Untersuchungen sind im Rahmen eines von der Deutschen Forschungsgemeinschaft geförderten Forschungsprojekts entstanden.
Im Rahmen dieser Arbeit wurde die Entscheidungsfindung im Herstellungsprozess von Brückenkappen untersucht. Es stellte sich heraus, dass die Fuzzy-Methode ein geeignetes Werkzeug sein könnte, die Teilprozesse auf die Möglichkeit ihrer Parallelisierung hin zu untersuchen. Um diese Theorie zu testen, wurde auf den Grundlagen von Arbeiten der Professur Baubetrieb und Bauverfahren der Prozess näher analysiert und unterstützend durch eigene Recherchen ein UML-Diagramm erstellt, welches als Aktivitätsdiagramm ausgebildet wurde. Aufbauend auf diesem Ablauf und den gewonnenen Kenntnissen zur Herstellung einer Brückenkappe, konnten die einzelnen Prozesse zu Teilprozessen, sogenannten Bausteinen, zusammengefasst werden. Diese Bausteine sind entstanden, um die Simulation möglich zu machen, indem der Ablauf weniger komplex wird und nur die Prozesse zu beurteilen sind, die beeinflusst bzw. in ihrer Reihenfolge bis zu einem gewissen Grad variabel sind. Eine erleichterte Interaktion mit den Bausteinen und deren Überführung in ein Simulationsprogramm wurde über Templates realisiert. So besitzt jeder Baustein eine einheitliche Struktur. Unter anderem beinhalten die Bausteine die jeweiligen Ressourcen und Parameter, sowie die Abhängigkeiten der Prozesse untereinander und die zugehörige Priorität. Zur Entscheidungsfindung wurde die Fuzzylogik herangezogen und die Problemstellung der Parallelisierung zum Ziel gesetzt. Die Realisierung wurde über einen Entscheidungsbaum und das daraus resultierende Regelwerk erreicht. Somit ließen sich, ausgehend von einem festgelegten Prozess und durch die Fuzzifizierung der Eingangsparameter Priorität, Prozessdauer und Verfügbarkeit der Ressourcen und Arbeitskräfte, verschiedene Pfade identifizieren, allerdings nur in Verbindung mit den vorher analysierten Abhängigkeiten. Für jeden der Eingangsparameter wurden so Fuzzy-Sets erstellt. Über den Entscheidungsbaum, welcher mit den linguistischen Variablen versehen wurde, konnte über sogenannte "und" - Verknüpfungen das Regelwerk aufgestellt werden. Das gekürzte Regelwerk in dieser Arbeit beinhaltet grundsätzlich nur die Regeln, die auch zu einer wirklichen Entscheidung führen. Daraus folgt, dass es möglich ist mittels der Fuzzy-Methode eine Entscheidung darüber zu fällen, ob zwei Prozesse zu parallelisieren sind oder nicht und aufgetretene Verzögerungen wieder eingeholt werden können.
Methods for model quality assessment are aiming to find the most appropriate model with respect to accuracy and computational effort for a structural system under investigation. Model error estimation techniques can be applied for this purpose when kinematical models are investigated. They are counted among the class of white box models, which means that the model hierarchy and therewith the best model is known. This thesis gives an overview of discretisation error estimators. Deduced from these, methods for model error estimation are presented. Their general goal is to make a prediction of the inaccuracies that are introduced using the simpler model without knowing the solution of a more complex model. This information can be used to steer an adaptive process. Techniques for linear and non-linear problems as well as global and goal-oriented errors are introduced. The estimation of the error in local quantities is realised by solving a dual problem, which serves as a weight for the primal error. So far, such techniques have mainly been applied in
material modelling and for dimensional adaptivity. Within the scope of this thesis, available model error estimators are adapted for an application to kinematical models. Their applicability is tested regarding the question of whether a geometrical non-linear calculation is necessary or not. The analysis is limited to non-linear estimators due to the structure of the underlying differential equations. These methods often involve simplification, e.g linearisations. It is investigated to which extent such assumptions lead to meaningful results, when applied to kinematical models.
Bridge vibration due to traffic loading has been a subject of extensive research in the last decades. The focus of such research has been to develop solution algorithms and investigate responses or behaviors of interest. However, proving the quality and reliability of the model output in structural engineering has become a topic of increasing importance. Therefore, this study is an attempt to extend concepts of uncertainty and sensitivity analyses to assess the dynamic response of a coupled model in bridge engineering considering time-dependent vehicular loading. A setting for the sensitivity analysis is proposed, which enables performing the sensitivity analysis considering random stochastic processes. The classical and proposed sensitivity settings are used to identify the relevant input parameters and models that have the most influence on the variance of the dynamic response. The sensitivity analysis exercises the model itself and extracts results without the need for measurements or reference solutions; however, it does not offer a means of ranking the coupled models studied. Therefore, concepts of total uncertainty are employed to rank the coupled models studied according to their fitness in describing the dynamic problem.
The proposed procedures are applied in two examples to assess the output of coupled subsystems and coupled partial models in bridge engineering considering the passage of a heavy vehicle at various speeds.
Lesen - Schreiben - Apparate
(2012)
Es ist ein Bild aus alten Tagen: ein wissbegieriger Student, auf der Suche nach fundierter wissenschaftlicher Information, begibt sich an den heiligsten Ort aller Bücher – die Universitätsbibliothek. Doch seit einiger Zeit tummeln sich Studierende nicht mehr nur in Bibliotheken, sondern auch immer häufiger im Internet. Sie suchen und finden dort digitale Bücher, sogenannte E-Books.
Wie lässt sich der Wandel durch den Einzug des E-Books in das etablierte Forschungssystem beschreiben, welche Konsequenzen lassen sich daraus ablesen und wird schließlich alles digital, sogar die Bibliothek? Diesen Fragen geht ein elfköpfiges Expertenteam aus Deutschland und der Schweiz während der zweitägigen Konferenz auf den Grund.
Bei den Weimarer E-DOC-Tagen geht es nun um die Veränderung des institutionellen Gefüges rund um das digitale Buch. Denn traditionell sind Verlage und Bibliotheken wichtige Bestandteile der Wissensversorgung in Studium und Lehre. Doch mit dem Aufkommen des E-Books verlagert sich die Recherche mehr und mehr ins Internet. Die Suchmaschine Google tritt als neuer Konkurrent der klassischen Bibliotheksrecherche auf. Aber auch Verlage müssen verstärkt auf die neuen Herausforderungen eines digitalen Buchmarktes reagieren.
In Kooperation mit der Universitätsbibliothek und dem Master-Studiengang Medienmanagement diskutieren Studierende, Wissenschaftler, Bibliothekare und Verleger, wie das E-Book unseren Umgang mit Literatur verändert. Der Tagungsband stellt alle Perspektiven und Ergebnisse zum Nachlesen zusammen.
Texts from the web can be reused individually or in large quantities. The former is called text reuse and the latter language reuse. We first present a comprehensive overview of the different ways in which text and language is reused today, and how exactly information retrieval technologies can be applied in this respect. The remainder of the thesis then deals with specific retrieval tasks. In general, our contributions consist of models and algorithms, their evaluation, and for that purpose, large-scale corpus construction.
The thesis divides into two parts. The first part introduces technologies for text reuse detection, and our contributions are as follows: (1) A unified view of projecting-based and embedding-based fingerprinting for near-duplicate detection and the first time evaluation of fingerprint algorithms on Wikipedia revision histories as a new, large-scale corpus of near-duplicates. (2) A new retrieval model for the quantification of cross-language text similarity, which gets by without parallel corpora. We have evaluated the model in comparison to other models on many different pairs of languages. (3) An evaluation framework for text reuse and particularly plagiarism detectors, which consists of tailored detection performance measures and a large-scale corpus of automatically generated and manually written plagiarism cases. The latter have been obtained via crowdsourcing. This framework has been successfully applied to evaluate many different state-of-the-art plagiarism detection approaches within three international evaluation competitions.
The second part introduces technologies that solve three retrieval tasks based on language reuse, and our contributions are as follows: (4) A new model for the comparison of textual and non-textual web items across media, which exploits web comments as a source of information about the topic of an item. In this connection, we identify web comments as a largely neglected information source and introduce the rationale of comment retrieval. (5) Two new algorithms for query segmentation, which exploit web n-grams and Wikipedia as a means of discerning the user intent of a keyword query. Moreover, we crowdsource a new corpus for the evaluation of query segmentation which surpasses existing corpora by two orders of magnitude. (6) A new writing assistance tool called Netspeak, which is a search engine for commonly used language. Netspeak indexes the web in the form of web n-grams as a source of writing examples and implements a wildcard query processor on top of it.
Ziel dieser Arbeit ist die Entwicklung von Methoden, mit denen die Prognosequalität von Kriechmodellen des Betons bestimmt werden kann. Die Methoden werden in zwei Ausgangsszenarien unterschieden: die Bewertung ohne und die Bewertung mit Verwendung von spezifischen Versuchsdaten zum Kriechverhalten des Betons. Die Modellqualität wird anhand der Gesamtunsicherheit der prognostizierten Kriechnachgiebigkeit quantifiziert. Die Unsicherheit wird für die Kriechprognose ohne Versuchsdaten über eine Unsicherheitsanalyse unter Berücksichtigung korrelierter Eingangsparameter ermittelt. Bei der Verwendung experimenteller Daten werden die stochastischen Eigenschaften der Modellparameter mittels Bayesian Updating bestimmt. Die Bewertung erfolgt erneut basierend auf einer Unsicherheitsanalyse sowie alternativ mittels Modellselektion nach Bayes.
Weiterhin wird eine auf Graphentheorie und Sensitivitätsanalysen basierende Methode zur Bewertung von gekoppelten Partialmodellen entwickelt. Damit wird der Einfluss eines Partialmodells auf das Verhalten einer globalen Tragstruktur quantifiziert, Interaktionen von Partialmodellen festgestellt und ein Maß für die Qualität eines Gesamtmodells ermittelt.