Refine
Has Fulltext
- yes (91) (remove)
Document Type
- Conference Proceeding (38)
- Doctoral Thesis (16)
- Part of a Book (10)
- Article (8)
- Bachelor Thesis (8)
- Master's Thesis (3)
- Book (2)
- Periodical (2)
- Study Thesis (2)
- Habilitation (1)
Institute
- Graduiertenkolleg 1462 (19)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (19)
- Universitätsbibliothek (11)
- Professur Bauphysik (8)
- Professur Informatik in der Architektur (6)
- F. A. Finger-Institut für Baustoffkunde (FIB) (4)
- Institut für Strukturmechanik (ISM) (4)
- An-Institute (2)
- Institut für Europäische Urbanistik (2)
- Professur Bauchemie und Polymere Werkstoffe (2)
Keywords
- Angewandte Informatik (36)
- Angewandte Mathematik (36)
- Computerunterstütztes Verfahren (36)
- Elektronisches Buch (7)
- Bauphysik (3)
- Bibliothek (3)
- E-Book-Reader (3)
- Urheberrecht (3)
- Architektur (2)
- Beton (2)
Year of publication
- 2012 (91) (remove)
Lesen - Schreiben - Apparate
(2012)
Es ist ein Bild aus alten Tagen: ein wissbegieriger Student, auf der Suche nach fundierter wissenschaftlicher Information, begibt sich an den heiligsten Ort aller Bücher – die Universitätsbibliothek. Doch seit einiger Zeit tummeln sich Studierende nicht mehr nur in Bibliotheken, sondern auch immer häufiger im Internet. Sie suchen und finden dort digitale Bücher, sogenannte E-Books.
Wie lässt sich der Wandel durch den Einzug des E-Books in das etablierte Forschungssystem beschreiben, welche Konsequenzen lassen sich daraus ablesen und wird schließlich alles digital, sogar die Bibliothek? Diesen Fragen geht ein elfköpfiges Expertenteam aus Deutschland und der Schweiz während der zweitägigen Konferenz auf den Grund.
Bei den Weimarer E-DOC-Tagen geht es nun um die Veränderung des institutionellen Gefüges rund um das digitale Buch. Denn traditionell sind Verlage und Bibliotheken wichtige Bestandteile der Wissensversorgung in Studium und Lehre. Doch mit dem Aufkommen des E-Books verlagert sich die Recherche mehr und mehr ins Internet. Die Suchmaschine Google tritt als neuer Konkurrent der klassischen Bibliotheksrecherche auf. Aber auch Verlage müssen verstärkt auf die neuen Herausforderungen eines digitalen Buchmarktes reagieren.
In Kooperation mit der Universitätsbibliothek und dem Master-Studiengang Medienmanagement diskutieren Studierende, Wissenschaftler, Bibliothekare und Verleger, wie das E-Book unseren Umgang mit Literatur verändert. Der Tagungsband stellt alle Perspektiven und Ergebnisse zum Nachlesen zusammen.
Texts from the web can be reused individually or in large quantities. The former is called text reuse and the latter language reuse. We first present a comprehensive overview of the different ways in which text and language is reused today, and how exactly information retrieval technologies can be applied in this respect. The remainder of the thesis then deals with specific retrieval tasks. In general, our contributions consist of models and algorithms, their evaluation, and for that purpose, large-scale corpus construction.
The thesis divides into two parts. The first part introduces technologies for text reuse detection, and our contributions are as follows: (1) A unified view of projecting-based and embedding-based fingerprinting for near-duplicate detection and the first time evaluation of fingerprint algorithms on Wikipedia revision histories as a new, large-scale corpus of near-duplicates. (2) A new retrieval model for the quantification of cross-language text similarity, which gets by without parallel corpora. We have evaluated the model in comparison to other models on many different pairs of languages. (3) An evaluation framework for text reuse and particularly plagiarism detectors, which consists of tailored detection performance measures and a large-scale corpus of automatically generated and manually written plagiarism cases. The latter have been obtained via crowdsourcing. This framework has been successfully applied to evaluate many different state-of-the-art plagiarism detection approaches within three international evaluation competitions.
The second part introduces technologies that solve three retrieval tasks based on language reuse, and our contributions are as follows: (4) A new model for the comparison of textual and non-textual web items across media, which exploits web comments as a source of information about the topic of an item. In this connection, we identify web comments as a largely neglected information source and introduce the rationale of comment retrieval. (5) Two new algorithms for query segmentation, which exploit web n-grams and Wikipedia as a means of discerning the user intent of a keyword query. Moreover, we crowdsource a new corpus for the evaluation of query segmentation which surpasses existing corpora by two orders of magnitude. (6) A new writing assistance tool called Netspeak, which is a search engine for commonly used language. Netspeak indexes the web in the form of web n-grams as a source of writing examples and implements a wildcard query processor on top of it.
Ziel dieser Arbeit ist die Entwicklung von Methoden, mit denen die Prognosequalität von Kriechmodellen des Betons bestimmt werden kann. Die Methoden werden in zwei Ausgangsszenarien unterschieden: die Bewertung ohne und die Bewertung mit Verwendung von spezifischen Versuchsdaten zum Kriechverhalten des Betons. Die Modellqualität wird anhand der Gesamtunsicherheit der prognostizierten Kriechnachgiebigkeit quantifiziert. Die Unsicherheit wird für die Kriechprognose ohne Versuchsdaten über eine Unsicherheitsanalyse unter Berücksichtigung korrelierter Eingangsparameter ermittelt. Bei der Verwendung experimenteller Daten werden die stochastischen Eigenschaften der Modellparameter mittels Bayesian Updating bestimmt. Die Bewertung erfolgt erneut basierend auf einer Unsicherheitsanalyse sowie alternativ mittels Modellselektion nach Bayes.
Weiterhin wird eine auf Graphentheorie und Sensitivitätsanalysen basierende Methode zur Bewertung von gekoppelten Partialmodellen entwickelt. Damit wird der Einfluss eines Partialmodells auf das Verhalten einer globalen Tragstruktur quantifiziert, Interaktionen von Partialmodellen festgestellt und ein Maß für die Qualität eines Gesamtmodells ermittelt.
Experimentelle Untersuchung eines Verfahrens zur optimalen Positionierung von Referenzsensoren bei der experimentellen Modalanalyse mit output-only Methoden nach Brehm (2011). Untersuchung des Einflusses der Referenzsensorpositionierung, -anzahl und der Positionierung der wandernden Sensoren unter Anwendung des Stochastic-Subspace-Verfahrens zur Auswertung der output-only Messdaten.
Eine der jüngsten Entwicklungen in der Games Branche sind sogenannte Social Games. Hierbei handelt es sich um digitale Spiele, die innerhalb von sozialen Netzwerken, wie z.B. Facebook und Myspace, gespielt werden.
Studien zeigen, dass kommerzielle digitale Spiele mehr als nur ein Zeitvertreib sind. Sie fördern sowohl kognitive, als auch affektive
und psychomotorische Kompetenzen. Aus diesem Grund werden seit Jahrzehnten digitale Spiele in der Pädagogik eingesetzt, um ihre Motivationskraft zu nutzen, um Lerneffekte zu erzielen.
Ziel dieser Arbeit ist es Spielmechaniken für ein bauphysikalisches Social Game zu entwickeln. Ausgehend von der Identifikation von Spielmechaniken, basierend auf einer Analyse der Funktionsweisen existierender populärer Social Games, und einem grundlegenden pädagogischen Verständnis bezüglich Digital Game Based Learning (DGBL), werden Spielmechaniken entwickelt, mit deren Hilfe bauphysikalische Fachkompetenzen vermittelt werden können.
Entwurf eines Spieler-Modells für eine erweiterbare Spielplattform zur Ausbildung in der Bauphysik
(2012)
Im Projekt Intelligentes Lernen beschäftigen sich die Professuren Content Management und Web-Technologien, Systeme der Virtuellen Realität und Bauphysik der Bauhaus- Universität Weimar mit der Entwicklung innovativer Informationstechnologien für eLearning- Umgebungen. In den Teilbereichen Retrieval, Extraktion und Visualisierung großer Dokumentkollektionen, sowie simulations- und planbasierter Wissensvermittlung werden Algorithmen und Werkzeuge erforscht, um eLearning-Systeme leistungsfähiger zu machen und um somit den Lernerfolg zu optimieren.
Ziel des Projekts, auf dem Gebiet des simulationsbasierten Wissenstransfers, ist die Entwicklung eines Multiplayer Online Games (MOG) zur Ausbildungsunterstützung in der Bauphysik.
Im Rahmen der vorliegenden Bachelorarbeit wird für diese digitale Lernsoftware ein Spieler- Modell zur Verwaltung der spielerspezifischen Daten entworfen und in das bestehende Framework integriert. Der Schwerpunkt der Arbeit liegt in der Organisation der erlernten Fähigkeiten des Spielers und in der an den Wissensstand angepassten Auswahl geeigneter Spielaufgaben. Für die Anwendung im eLearning-Bereich ist die Erweiterbarkeit des Modells um neue Lernkomplexe eine wesentliche Anforderung.
Die Vorstellung des Gesamtwerkes der halleschen Architekten Julius Kallmeyer und Wilhelm Facilides, die sich Anfang der 1920er Jahre zu einer Zusammenarbeit entschlossen und eine Vielzahl interessanter Gebäude für die Saalestadt schufen, ist in der Fokussierung der Gesamtthematik der Lebens- und Werksdarstellung das Grundanliegen dieser Ausarbeitung. Dieses bisher nicht in Angriff genommene architekturgeschichtliche Anliegen beschäftigt sich mit den Ergebnissen der Bürogeschichte einer- und der Lebensgeschichte der Persönlichkeiten andererseits. Bis heute gelten die klassisch modernen Architekturen Kallmeyers & Facilides ́, gerade für den gehobenen Wohnhausbau in Halle an der Saale, als herausragende Leistungen.