TY - THES A1 - Lux, Christopher T1 - A Data-Virtualization System for Large Model Visualization N2 - Interactive scientific visualizations are widely used for the visual exploration and examination of physical data resulting from measurements or simulations. Driven by technical advancements of data acquisition and simulation technologies, especially in the geo-scientific domain, large amounts of highly detailed subsurface data are generated. The oil and gas industry is particularly pushing such developments as hydrocarbon reservoirs are increasingly difficult to discover and exploit. Suitable visualization techniques are vital for the discovery of the reservoirs as well as their development and production. However, the ever-growing scale and complexity of geo-scientific data sets result in an expanding disparity between the size of the data and the capabilities of current computer systems with regard to limited memory and computing resources. In this thesis we present a unified out-of-core data-virtualization system supporting geo-scientific data sets consisting of multiple large seismic volumes and height-field surfaces, wherein each data set may exceed the size of the graphics memory or possibly even the main memory. Current data sets fall within the range of hundreds of gigabytes up to terabytes in size. Through the mutual utilization of memory and bandwidth resources by multiple data sets, our data-management system is able to share and balance limited system resources among different data sets. We employ multi-resolution methods based on hierarchical octree and quadtree data structures to generate level-of-detail working sets of the data stored in main memory and graphics memory for rendering. The working set generation in our system is based on a common feedback mechanism with inherent support for translucent geometric and volumetric data sets. This feedback mechanism collects information about required levels of detail during the rendering process and is capable of directly resolving data visibility without the application of any costly occlusion culling approaches. A central goal of the proposed out-of-core data management system is an effective virtualization of large data sets. Through an abstraction of the level-of-detail working sets, our system allows developers to work with extremely large data sets independent of their complex internal data representations and physical memory layouts. Based on this out-of-core data virtualization infrastructure, we present distinct rendering approaches for specific visualization problems of large geo-scientific data sets. We demonstrate the application of our data virtualization system and show how multi-resolution data can be treated exactly the same way as regular data sets during the rendering process. An efficient volume ray casting system is presented for the rendering of multiple arbitrarily overlapping multi-resolution volume data sets. Binary space-partitioning volume decomposition of the bounding boxes of the cube-shaped volumes is used to identify the overlapping and non-overlapping volume regions in order to optimize the rendering process. We further propose a ray casting-based rendering system for the visualization of geological subsurface models consisting of multiple very detailed height fields. The rendering of an entire stack of height-field surfaces is accomplished in a single rendering pass using a two-level acceleration structure, which combines a minimum-maximum quadtree for empty-space skipping and sorted lists of depth intervals to restrict ray intersection searches to relevant height fields and depth ranges. Ultimately, we present a unified rendering system for the visualization of entire geological models consisting of highly detailed stacked horizon surfaces and massive volume data. We demonstrate a single-pass ray casting approach facilitating correct visual interaction between distinct translucent model components, while increasing the rendering efficiency by reducing processing overhead of potentially invisible parts of the model. The combination of image-order rendering approaches and the level-of-detail feedback mechanism used by our out-of-core data-management system inherently accounts for occlusions of different data types without the application of costly culling techniques. The unified out-of-core data-management and virtualization infrastructure considerably facilitates the implementation of complex visualization systems. We demonstrate its applicability for the visualization of large geo-scientific data sets using output-sensitive rendering techniques. As a result, the magnitude and multitude of data sets that can be interactively visualized is significantly increased compared to existing approaches. KW - Computer Graphics KW - Visualisation KW - Volume Rendering KW - Large Data Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20130725-19855 ER - TY - THES A1 - Vogler, Verena T1 - A framework for artificial coral reef design: Integrating computational modelling and high precision monitoring strategies for artificial coral reefs – an Ecosystem-aware design approach in times of climate change N2 - Tropical coral reefs, one of the world’s oldest ecosystems which support some of the highest levels of biodiversity on the planet, are currently facing an unprecedented ecological crisis during this massive human-activity-induced period of extinction. Hence, tropical reefs symbolically stand for the destructive effects of human activities on nature [4], [5]. Artificial reefs are excellent examples of how architectural design can be combined with ecosystem regeneration [6], [7], [8]. However, to work at the interface between the artificial and the complex and temporal nature of natural systems presents a challenge, i.a. in respect to the B-rep modelling legacy of computational modelling. The presented doctorate investigates strategies on how to apply digital practice to realise what is an essential bulwark to retain reefs in impossibly challenging times. Beyond the main question of integrating computational modelling and high precision monitoring strategies in artificial coral reef design, this doctorate explores techniques, methods, and linking frameworks to support future research and practice in ecology led design contexts. Considering the many existing approaches for artificial coral reefs design, one finds they often fall short in precisely understanding the relationships between architectural and ecological aspects (e.g. how a surface design and material composition can foster coral larvae settlement, or structural three-dimensionality enhance biodiversity) and lack an integrated underwater (UW) monitoring process. Such a process is necessary in order to gather knowledge about the ecosystem and make it available for design, and to learn whether artificial structures contribute to reef regeneration or rather harm the coral reef ecosystem. For the research, empirical experimental methods were applied: Algorithmic coral reef design, high precision UW monitoring, computational modelling and simulation, and validated through parallel real-world physical experimentation – two Artificial Reef Prototypes (ARPs) in Gili Trawangan, Indonesia (2012–today). Multiple discrete methods and sub techniques were developed in seventeen computational experiments and applied in a way in which many are cross valid and integrated in an overall framework that is offered as a significant contribution to the field. Other main contributions include the Ecosystem-aware design approach, Key Performance Indicators (KPIs) for coral reef design, algorithmic design and fabrication of Biorock cathodes, new high precision UW monitoring strategies, long-term real-world constructed experiments, new digital analysis methods and two new front-end web-based tools for reef design and monitoring reefs. The methodological framework is a finding of the research that has many technical components that were tested and combined in this way for the very first time. In summary, the thesis responds to the urgency and relevance in preserving marine species in tropical reefs during this massive extinction period by offering a differentiated approach towards artificial coral reefs – demonstrating the feasibility of digitally designing such ‘living architecture’ according to multiple context and performance parameters. It also provides an in-depth critical discussion of computational design and architecture in the context of ecosystem regeneration and Planetary Thinking. In that respect, the thesis functions as both theoretical and practical background for computational design, ecology and marine conservation – not only to foster the design of artificial coral reefs technically but also to provide essential criteria and techniques for conceiving them. Keywords: Artificial coral reefs, computational modelling, high precision underwater monitoring, ecology in design. N2 - Charakteristisch für das Zeitalter des Klimawandels sind die durch den Menschen verursachte Meeresverschmutzung sowie ein massiver Rückgang der Artenvielfalt in den Weltmeeren. Tropische Korallenriffe sind als eines der ältesten und artenreichsten Ökosysteme der Erde besonders stark gefährdet und stehen somit symbolisch für die zerstörerischen Auswirkungen menschlicher Aktivitäten auf die Natur [4], [5]. Um dem massiven Rückgang der Korallenriffe entgegenzuwirken, wurden von Menschen künstliche Riffsysteme entwickelt [6], [7]. Sie sind Beispiele dafür, wie Architektur und die Regenerierung von Ökosystemen miteinander verbunden werden können [8]. Eine Verknüpfung von einerseits künstlichen und andererseits komplexen, sich verändernden natürlichen Systemen, stellt jedoch eine Herausforderung dar, u.a. in Bezug auf die Computermodellierung (B-Rep Modellierung). Zum Erhalt der Korallenriffe werden in der vorliegende Doktorarbeit Strategien aus der digitalen Praxis neuartig auf das Entwerfen von künstlichen Korallenriffen angewendet. Die Hauptfrage befasst sich damit, wie der Entwurfsprozess von künstlichen Korallenriffen unter Einbeziehung von Computermodellierung und hochpräzisen Überwachungsstrategien optimiert werden kann. In diesem Zusammenhang werden Techniken, Methoden sowie ein übergeordnetes Framework erforscht, welche zukünftige Forschung und Praxis in Bezug auf Ökologie-geleitete Entwurfsprozesse fördern soll. In Anbetracht der vielen vorhandenen künstlichen Riffsysteme, kann man feststellen, dass die Zusammenhänge zwischen Architektur- und Ökosystem-Anforderungen nicht genau untersucht und dadurch bei der Umsetzung nicht entsprechend berücksichtigt werden. Zum Beispiel wie Oberflächenbeschaffenheit und Materialität eine Ansiedlung von Korallenlarven begünstigt oder wie eine räumlich vielseitige Struktur die Artenvielfalt verbessern kann. Zudem fehlt ein integrierter Unterwasser-Überwachungsprozess, welcher Informationen über das Ökosystem liefert und diese dem Entwurf bereitstellt. Zusätzlich ist eine Unterwasser-Überwachung notwendig, um herauszufinden, ob die künstlichen Riffstrukturen zur Regenerierung beitragen oder dem Ökosystem gänzlich schaden. In dieser Forschungsarbeit werden empirische und experimentelle Methoden angewendet: Algorithmisches Entwerfen für Korallenriffe, hochpräzise Unterwasser-Überwachung, Computermodellierung und -simulation. Die Forschung wird seit 2012 bis heute durch zwei Riffprototypen (Artificial Reef Prototypes – ARPs) in Gili Trawangan, Indonesien validiert. Zusätzlich wurden weitere separate Methoden und Techniken in insgesamt siebzehn computergestützten Experimenten entwickelt und so angewendet, dass viele kreuzvalidiert und in ein Framework integriert sind, welches dann als bedeutender Beitrag dem Forschungsgebiet zur Verfügung steht. Weitere Hauptbeiträge sind der Ökosystem-bewusste Entwurfsansatz (Ecosystem-aware design approach), Key Performance Indicators (KPIs) für das Gestalten von Korallenriffen, algorithmisches Entwerfen und die Herstellung von Biorock-Kathoden, neue hochpräzise Unterwasser-Überwachungsstrategien, reale Langzeitexperimente, neue digitale Analysemethoden, sowie zwei webbasierte Softwareanwendungen für die Gestaltung und die Überwachung von künstlichen Korallenriffen. Das methodische Framework ist das Hauptergebnis der Forschung, da die vielen technischen Komponenten in dieser Weise zum ersten Mal getestet und kombiniert wurden. Zusammenfassend reagiert die vorliegende Doktorarbeit sowohl auf die Dringlichkeit als auch auf die Relevanz der Erhaltung von Artenvielfalt in tropischen Korallenriffen in Zeiten eines massiven Aussterbens, indem sie einen differenzierten Entwurfsansatz für künstliche Korallenriffe offeriert. Die Arbeit zeigt auf, dass ein digitales Entwerfen einer solchen „lebendigen Architektur“ unter Berücksichtigung vielfältiger Anforderungen und Leistungsparametern machbar ist. Zusätzlich bietet sie eine ausführliche kritische Diskussion über die Rolle von computergestützten Entwerfen und Architektur im Zusammenhang mit Regenerierung von Ökosystemen und “Planetary Thinking”. In dieser Hinsicht fungiert die Doktorarbeit als theoretischer und praktischer Hintergrund für computergestütztes Entwerfen, Ökologie und Meeresschutz. Eine Verbesserung des Entwerfens von künstlichen Korallenriffen wird nicht nur auf technischer Ebene aufgezeigt, sondern es werden auch die wesentlichen Kriterien und Techniken für deren Umsetzung benannt. Schlüsselwörter: Künstliche Korallenriffe, Computermodellierung, hochpräzise Unterwasser-Überwachung, Ökologie im Architekturentwurf. KW - Korallenriff KW - Algorithmus KW - Architektur KW - Meeresökologie KW - Software KW - Artificial coral reefs KW - Computational modelling KW - High precision underwater monitoring KW - Ecology in design KW - Künstliche Korallenriffe KW - Unterwasserarchitektur Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20220322-46115 UR - https://artificialreefdesign.com/ SN - 978-3-00-074495-2 N1 - Die URL führt zu 3D Modelle von echten Korallenriffen. ER - TY - THES A1 - Fleischmann, Ewan T1 - Analysis and Design of Blockcipher Based Cryptographic Algorithms N2 - This thesis focuses on the analysis and design of hash functions and authenticated encryption schemes that are blockcipher based. We give an introduction into these fields of research – taking in a blockcipher based point of view – with special emphasis on the topics of double length, double call blockcipher based compression functions. The first main topic (thesis parts I - III) is on analysis and design of hash functions. We start with a collision security analysis of some well known double length blockcipher based compression functions and hash functions: Abreast-DM, Tandem-DM and MDC-4. We also propose new double length compression functions that have elevated collision security guarantees. We complement the collision analysis with a preimage analysis by stating (near) optimal security results for Abreast-DM, Tandem-DM, and Hirose-DM. Also, some generalizations are discussed. These are the first preimage security results for blockcipher based double length hash functions that go beyond the birthday barrier. We then raise the abstraction level and analyze the notion of ’hash function indifferentiability from a random oracle’. So we not anymore focus on how to obtain a good compression function but, instead, on how to obtain a good hash function using (other) cryptographic primitives. In particular we give some examples when this strong notion of hash function security might give questionable advice for building a practical hash function. In the second main topic (thesis part IV), which is on authenticated encryption schemes, we present an on-line authenticated encryption scheme, McOEx, that simultaneously achieves privacy and confidentiality and is secure against nonce-misuse. It is the first dedicated scheme that achieves high standards of security and – at the same time – is on-line computable. N2 - Die Schwerpunkte dieser Dissertation sind die Analyse und das Design von blockchiffrenbasierten Hashfunktionen (Abschnitte I-III) sowie die Entwicklung von robusten Verfahren zur authentifizierten erschlüsselung (Abschnitt IV). Die Arbeit beginnt mit einer Einführung in diese Themengebiete, wobei – insbesondere bei den Hashfunktionen – eine blockchiffrenzentrierte Perspektive eingenommen wird. Die Abschnitte I-III dieser Dissertation beschäftigen sich mit der Analyse und dem Design von Hashfunktionen. Zu Beginn werden die Kollisionssicherheit einiger wohlbekannter Kompressions- und Hashfunktionen mit zweifacher Blockchiffrenausgabelänge näher analysiert: Abreast-DM, Tandem-DMundMDC-4. Ebenso werden neue Designs vorgestellt, welche erhöhte Kollisionssicherheitsgarantien haben. Ergänzend zur Kollisionssicherheitsanalyse wird die Resistenz gegen Urbildangriffe von Kompressionsfunktionen doppelter Ausgabelänge untersucht. Dabei werden nahezu optimale Sicherheitsschranken für Abreast-DM, Tandem-DM und Hirose-DM abgeleitet. Einige Verallgemeinerungen sind ebenfalls Teil der Diskussion. Das sind die ersten Sicherheitsresultate gegen Urbildangriffe auf blockchiffrenbasierte Kompressionsfunktionen doppelter Länge, die weit über die bis dahin bekannten Sicherheitsresultate hinausgehen. Daran anschließend folgt eine Betrachtung, die auf einem erhöhten Abstraktionslevel durchgeführt wird und den Begriff der Undifferenzierbarkeit einer Hashfunktion von einem Zufallsorakel diskutiert. Hierbei liegt der Fokus nicht darauf, wie man eine gute Kompressionfunktion auf Basis anderer kryptographischer Funktionen erstellt, sondern auf dem Design einer Hashfunktionen auf Basis einer Kompressionsfunktion. Unter Einnahme eines eher praktischen Standpunktes wird anhand einiger Beispiele aufgezeigt, dass die relativ starke Eigenschaft der Undifferenzierbarkeit einer Hashfunktion zu widersprüchlichen Designempfehlungen für praktikable Hashfunktionen führen kann. Im zweiten Schwerpunkt, in Abschnitt IV, werden Verfahren zur authentifizierten Verschlüsselung behandelt. Es wird ein neues Schema zur authentifizierten Verschlüsselung vorgestellt,McOEx. Es schützt gleichzeitig die Integrität und die Vertrauchlichkeit einer Nachricht. McOEx ist das erste konkrete Schema das sowohl robust gegen die Wiederverwendung von Nonces ist und gleichzeitig on-line berechnet werden kann. KW - Kryptologie KW - Kryptographie KW - Authentifizierte Verschlüsselung KW - Beweisbare Sicherheit KW - Blockchiffrenbasierte Hashfunktion KW - Blockcipher Based Hashing Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20130722-19835 ER - TY - THES A1 - Forler, Christian T1 - Analysis Design & Applications of Cryptographic Building Blocks N2 - This thesis deals with the basic design and rigorous analysis of cryptographic schemes and primitives, especially of authenticated encryption schemes, hash functions, and password-hashing schemes. In the last decade, security issues such as the PS3 jailbreak demonstrate that common security notions are rather restrictive, and it seems that they do not model the real world adequately. As a result, in the first part of this work, we introduce a less restrictive security model that is closer to reality. In this model it turned out that existing (on-line) authenticated encryption schemes cannot longer beconsidered secure, i.e. they can guarantee neither data privacy nor data integrity. Therefore, we present two novel authenticated encryption scheme, namely COFFE and McOE, which are not only secure in the standard model but also reasonably secure in our generalized security model, i.e. both preserve full data inegrity. In addition, McOE preserves a resonable level of data privacy. The second part of this thesis starts with proposing the hash function Twister-Pi, a revised version of the accepted SHA-3 candidate Twister. We not only fixed all known security issues of Twister, but also increased the overall soundness of our hash-function design. Furthermore, we present some fundamental groundwork in the area of password-hashing schemes. This research was mainly inspired by the medial omnipresence of password-leakage incidences. We show that the password-hashing scheme scrypt is vulnerable against cache-timing attacks due to the existence of a password-dependent memory-access pattern. Finally, we introduce Catena the first password-hashing scheme that is both memory-consuming and resistant against cache-timing attacks. KW - Kryptologie KW - symmetric crypto KW - provable security KW - authenticated encryption KW - hash functions KW - password scrambler Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20150330-23764 PB - Shaker Verlag ER - TY - THES A1 - Anderka, Maik T1 - Analyzing and Predicting Quality Flaws in User-generated Content: The Case of Wikipedia N2 - Web applications that are based on user-generated content are often criticized for containing low-quality information; a popular example is the online encyclopedia Wikipedia. The major points of criticism pertain to the accuracy, neutrality, and reliability of information. The identification of low-quality information is an important task since for a huge number of people around the world it has become a habit to first visit Wikipedia in case of an information need. Existing research on quality assessment in Wikipedia either investigates only small samples of articles, or else deals with the classification of content into high-quality or low-quality. This thesis goes further, it targets the investigation of quality flaws, thus providing specific indications of the respects in which low-quality content needs improvement. The original contributions of this thesis, which relate to the fields of user-generated content analysis, data mining, and machine learning, can be summarized as follows: (1) We propose the investigation of quality flaws in Wikipedia based on user-defined cleanup tags. Cleanup tags are commonly used in the Wikipedia community to tag content that has some shortcomings. Our approach is based on the hypothesis that each cleanup tag defines a particular quality flaw. (2) We provide the first comprehensive breakdown of Wikipedia's quality flaw structure. We present a flaw organization schema, and we conduct an extensive exploratory data analysis which reveals (a) the flaws that actually exist, (b) the distribution of flaws in Wikipedia, and, (c) the extent of flawed content. (3) We present the first breakdown of Wikipedia's quality flaw evolution. We consider the entire history of the English Wikipedia from 2001 to 2012, which comprises more than 508 million page revisions, summing up to 7.9 TB. Our analysis reveals (a) how the incidence and the extent of flaws have evolved, and, (b) how the handling and the perception of flaws have changed over time. (4) We are the first who operationalize an algorithmic prediction of quality flaws in Wikipedia. We cast quality flaw prediction as a one-class classification problem, develop a tailored quality flaw model, and employ a dedicated one-class machine learning approach. A comprehensive evaluation based on human-labeled Wikipedia articles underlines the practical applicability of our approach. KW - Data Mining KW - Machine Learning KW - Wikipedia KW - User-generated Content Analysis KW - Information Quality Assessment KW - Quality Flaw Prediction Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20130709-19778 ER - TY - THES A1 - Dang, Trang T1 - Automated Detailing of 4D Schedules N2 - The increasing success of BIM (Building Information Model) and the emergence of its implementation in 3D construction models have paved a way for improving scheduling process. The recent research on application of BIM in scheduling has focused on quantity take-off, duration estimation for individual trades, schedule visualization, and clash detection. Several experiments indicated that the lack of detailed planning causes about 30% non-productive time and stacking of trades. However, detailed planning still has not been implemented in practice despite receiving a lot of interest from researchers. The reason is associated with the huge amount and complexity of input data. In order to create a detailed planning, it is time consuming to manually decompose activities, collect and calculate the detailed information in relevant. Moreover, the coordination of detailed activities requires much effort for dealing with their complex constraints. This dissertation aims to support the generation of detailed schedules from a rough schedule. It proposes a model for automated detailing of 4D schedules by integrating BIM, simulation and Pareto-based optimization. T3 - Schriften der Professur Baubetrieb und Bauverfahren - 32 KW - BIM KW - Simulation KW - Pareto optimization KW - multi-objective optimization KW - scheduling Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20141006-23103 ER - TY - THES A1 - Azari, Banafsheh T1 - Bidirectional Texture Functions: Acquisition, Rendering and Quality Evaluation N2 - As one of its primary objectives, Computer Graphics aims at the simulation of fabrics’ complex reflection behaviour. Characteristic surface reflectance of fabrics, such as highlights, anisotropy or retro-reflection arise the difficulty of synthesizing. This problem can be solved by using Bidirectional Texture Functions (BTFs), a 2D-texture under various light and view direction. But the acquisition of Bidirectional Texture Functions requires an expensive setup and the measurement process is very time-consuming. Moreover, the size of BTF data can range from hundreds of megabytes to several gigabytes, as a large number of high resolution pictures have to be used in any ideal cases. Furthermore, the three-dimensional textured models rendered through BTF rendering method are subject to various types of distortion during acquisition, synthesis, compression, and processing. An appropriate image quality assessment scheme is a useful tool for evaluating image processing algorithms, especially algorithms designed to leave the image visually unchanged. In this contribution, we present and conduct an investigation aimed at locating a robust threshold for downsampling BTF images without loosing perceptual quality. To this end, an experimental study on how decreasing the texture resolution influences perceived quality of the rendered images has been presented and discussed. Next, two basic improvements to the use of BTFs for rendering are presented: firstly, the study addresses the cost of BTF acquisition by introducing a flexible low-cost step motor setup for BTF acquisition allowing to generate a high quality BTF database taken at user-defined arbitrary angles. Secondly, the number of acquired textures to the perceptual quality of renderings is adapted so that the database size is not overloaded and can fit better in memory when rendered. Although visual attention is one of the essential attributes of HVS, it is neglected in most existing quality metrics. In this thesis an appropriate objective quality metric based on extracting visual attention regions from images and adequate investigation of the influence of visual attention on perceived image quality assessment, called Visual Attention Based Image Quality Metric (VABIQM), has been proposed. The novel metric indicates that considering visual saliency can offer significant benefits with regard to constructing objective quality metrics to predict the visible quality differences in images rendered by compressed and non-compressed BTFs and also outperforms straightforward existing image quality metrics at detecting perceivable differences. KW - Wahrnehmung KW - Bildqualität KW - BTF Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20180820-37790 ER - TY - THES A1 - Al Khatib, Khalid T1 - Computational Analysis of Argumentation Strategies N2 - The computational analysis of argumentation strategies is substantial for many downstream applications. It is required for nearly all kinds of text synthesis, writing assistance, and dialogue-management tools. While various tasks have been tackled in the area of computational argumentation, such as argumentation mining and quality assessment, the task of the computational analysis of argumentation strategies in texts has so far been overlooked. This thesis principally approaches the analysis of the strategies manifested in the persuasive argumentative discourses that aim for persuasion as well as in the deliberative argumentative discourses that aim for consensus. To this end, the thesis presents a novel view of argumentation strategies for the above two goals. Based on this view, new models for pragmatic and stylistic argument attributes are proposed, new methods for the identification of the modelled attributes have been developed, and a new set of strategy principles in texts according to the identified attributes is presented and explored. Overall, the thesis contributes to the theory, data, method, and evaluation aspects of the analysis of argumentation strategies. The models, methods, and principles developed and explored in this thesis can be regarded as essential for promoting the applications mentioned above, among others. KW - Argumentation KW - Natürliche Sprache KW - Argumentation Strategies KW - Sprachverarbeitung KW - Natural Language Processing KW - Computational Argumentation Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20210719-44612 ER - TY - THES A1 - Preis Dutra, Joatan T1 - Cultural Heritage on Mobile Devices: Building Guidelines for UNESCO World Heritage Sites' Apps N2 - Technological improvements and access provide a fertile scenario for creating and developing mobile applications (apps). This scenario results in a myriad of Apps providing information regarding touristic destinations, including those with a cultural profile, such as those dedicated to UNESCO World Heritage Sites (WHS). However, not all of the Apps have the same efficiency. In order to have a successful app, its development must consider usability aspects and features aligned with reliable content. Despite the guidelines for mobile usability being broadly available, they are generic, and none of them concentrates specifically into cultural heritage places, especially on those placed in an open-air scenario. This research aims to fulfil this literature gap and discusses how to adequate and develop specific guidelines for a better outdoor WHS experience. It uses an empirical approach applied to an open-air WHS city: Weimar and its Bauhaus and Classical Weimar sites. In order to build a new set of guidelines applied for open-air WHS, this research used a systematic approach to compare literature-based guidelines to industry-based ones (based on affordances), extracted from the available Apps dedicated to WHS set in Germany. The instructions compiled from both sources have been comparatively tested by using two built prototypes from the distinctive guidelines, creating a set of recommendations collecting the best approach from both sources, plus suggesting new ones the evaluation. N2 - Der technische Fortschritt und der Zugang dazu bieten ein ertragreiches Szenario für die Innovation und Entwicklung mobiler Anwendungen (Apps). Daraus ist eine Vielzahl von zu Verfügung stehenden Apps entstanden, die Informationen über touristische Reiseziele bereitstellen, insbesondere solche mit einem kulturellen Hintergrund, etwa die, die zum UNESCO Welterbe/Weltkulturebe (auf Englisch WHS – World Heritage Sites, fotan so genannt in dieser Arteit) gehören. Allerdings haben nicht alle Apps die gleiche Effizienz. Um eine erfolgreiche App entwickeln zu können, sollten gleichzeitig die Benutzerfreundlichkeit der Aspekte und Funktionen in Betracht gezogen werden, als auch Zuverlässigkeit ihrer Inhalte. Obwohl die Richtlinien für eine mobile Benutzerfreundlichkeit weit verbreitet sind, sind diese jedoch generisch. Keine Richtlinie ist eindeutig auf Orte des Kulturerbes zugeschnitten, schon gar nicht auf Standorte, die sich im Freien befinden. Ziel dieser Arbeit ist es, diese Literaturlücke zu schließen und gleichzeitig nahe zu bringen, wie bestimmte Richtlinien angepasst und ausgebaut werden könnten, um bessere WHS-Erlebnisse im Freien zu schaffen. Die Arbeit geht empirisch vor am Beispiel der deutschen Stadt Weimar, die mit ihren Altstadt- und Bauhaus-Standorten als Freiluft-WHS gilt. Deutschland ist das fünftbedeutsamste Land der UNESCO-Liste und bekannt für sein technologisches Profil und der Zugang dazu. Dieses Land als geeignete Umgebung für den empirischen Ansatz zu wählen ist ein guter Ausgangspunkt, um Erfahrungen zu sammeln für innovative Projekte, die mit Apps das Kulturerbe erschließen. Um eine Reihe neuer Richtlinien für Freiluft-WHS (auf Englisch: Open-Air WHS) aufstellen zu können, wurden im Rahmen dieser Arbeit Richtlinien aus akademischen Quellen mit branchenüblichen Richtlinien verglichen, gewonnen aus einer umfangreichen Auszug verfügbarer Apps, die sich den WHS in Deutschland widmen. Im branchenüblichen Ansatz wurden WHS-bezogene Apps ausgewählt, die auf dem deutschen App-Markt erhältlich sind (für iOS- und Android-Geräte). Deren Eigenschaften und Gebrauch wurden aus der Nutzersicht betrachtet. Daraus ließen sich Gemeinsamkeiten ableiten innerhalb der aktuellen Funktionen und Tools, mit denen WHS beworben werden. Die Analyse förderte Richtlinien hervor fand aus der Layout-, Navigations-, Design- und der Inhaltsperspektive. Daraus wurde eine Prototyp-App erstellt, die dem in der Branche verzeichneten Stand der Technik entspricht. Während die Richtlinien aus der Branchenübersicht einen Beobachtungsansatz der Leistungen verfolgten, bezogen die aus der Literaturrecherche gewonnenen Richtlinien einen systematischen Ansatz des akademischen Materials. Der literaturbasierte Ansatz wurde aus Veröffentlichungen zur Benutzerfreundlichkeit mobiler Apps gewonnen, die in Forschungsdatenbanken erhältlich sind. Zusätzlich wurden in führenden Unternehmen für die Entwicklung von mobilen Betriebssystemen (iOS und Android) bereits vorhandene Modelle zur Nutzerfreundlichkeit sowie offizielle Richtlinien einbezogen, die unterschiedliche Ansätze sowie Ansichten für das Design mobiler Schnittstellen verbinden und kombinieren und die für WHS genutzt werden könnten. Unter Rücksichtnahme der Vielfalt der Besucherprofile in Weimar wurden auch Studien über Nutzeroberflächen für ältere Nutzer eingeschlossen. Obwohl die Leitlinien sich nicht auf didaktische Funktionen konzentrieren, wurden auch Studien über das mobile Lernen in der Studie mitaufgenommen, sofern die Nutzeroberfläche Teil des Studienziels war. Diese Entscheidung wurde getroffen, weil die Stadt Weimar auch jugendliche Studenten als Besucher hat, die die historischen Sehenswürdigkeiten der Stadt besuchen und kennenlernen. Allgemein konzentrierte sich diese Ausarbeitung auf klare Anweisungen, die in Richtlinien umgesetzt werden könnten. Die Analyse beschränkte sich jedoch nicht auf die Auswahlliste der Studienobjekte und wurde extrapoliert, unter Berücksichtigung relevanter Referenzen, die in den für die Stichprobe ausgewählten Veröffentlichungen zitiert wurden. Wann immer eine Leitlinie oder Empfehlung gefunden werden konnte, wurde diese, verfahrensgemäß in eine Tabelle eingefügt, einer ähnlichen Struktur folgend zu den aus der Übersicht der App-Industrie gewonnenen Richtlinien. Um den Erkenntnissen der Literaturrecherche zu entsprechen, wurden neue Kategorien hinzugefügt. Im Großen und Ganzen bestätigten einige Richtlinien des literarischen Ansatzes die Anweisungen des branchenorientierten Ansatzes, andere widersprachen diesen. Dadurch konnte ein neuer Satz von Leitlinien entstehen, die gegeneinander getestet wurden. Der Inhalt beider Prototypen (branchen- und literaturbasiert) wurden ausgearbeitet, um das WHS in Weimar anzusprechen. Dabei wurden Inhalte abgerufen, die auf der offiziellen touristischen Website der Stadt und in der größten Kulturstiftung Weimars, der Klassik Stiftung, verfügbar sind. Die Nutzung zweier verschiedener einfache Prototypen bot die Möglichkeit, auch andere Funktionen zu testen wie z. B. verschiedene Arten der Anzeige von Karten und Inhalten. Zur Überprüfung und Gegenüberstellung der verschiedenen Leitlinien, wurden ein aufgabenbasierter Test und eine vergleichende Bewertungsumfrage durchgeführt. Tester aus verschiedenen Altersgruppen führten in beiden Prototypen eine Reihe vordefinierter Aufgaben aus und beantworteten einen Fragebogen, wobei die in beiden Versionen vorgestellten Funktionen und Formate verglichen werden konnten. Die Fragen sollten anhand eine Auswahl vordefinierter Antworten von Nutzern beantwortet werden, ideal für eine statistische Auswertung, insbesondere zum Thema Benutzerzufriedenheit. Auch offene Fragen, zur Leistung persönliche Beiträge der Tester, wurden angeboten. Diese Methode war ausschlaggebend dafür, beide Richtliniensätze (Industrie vs. Literaturrecherche) gegeneinander zu vergleichen und zu analysieren, So konnte ein idealer Ansatz gefunden werden für Richtlinien von Apps, die sich mit Welterbestätten unter freiem Himmel befassen. Auch weitere Empfehlungen, die sich aus der Bewertung ergaben, konnten hinzugefügt werden. Das Ergebnis führt zu einem umfassendem Satz von Richtlinien, die in zukünftigen touristischen Open-Air-Apps angewandt werden können, die sich mit Weltkulturerbestätten befassen. KW - Benutzerschnittstellenentwurfssystem KW - Welterbe KW - Benutzerfreundlichkeit KW - App KW - Mobiles Endgerät KW - Interface Design KW - world heritage sites KW - usability KW - mobile devices Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20211129-45319 UR - www.joatan.com.br/docs/Thesis_JoatanPreisDutra.pdf ER - TY - THES A1 - List, Eik T1 - Design, Analysis, and Implementation of Symmetric-key (Authenticated) Ciphers N2 - Modern cryptography has become an often ubiquitous but essential part of our daily lives. Protocols for secure authentication and encryption protect our communication with various digital services, from private messaging, online shopping, to bank transactions or exchanging sensitive information. Those high-level protocols can naturally be only as secure as the authentication or encryption schemes underneath. Moreover, on a more detailed level, those schemes can also at best inherit the security of their underlying primitives. While widespread standards in modern symmetric-key cryptography, such as the Advanced Encryption Standard (AES), have shown to resist analysis until now, closer analysis and design of related primitives can deepen our understanding. The present thesis consists of two parts that portray six contributions: The first part considers block-cipher cryptanalysis of the round-reduced AES, the AES-based tweakable block cipher Kiasu-BC, and TNT. The second part studies the design, analysis, and implementation of provably secure authenticated encryption schemes. In general, cryptanalysis aims at finding distinguishable properties in the output distribution. Block ciphers are a core primitive of symmetric-key cryptography which are useful for the construction of various higher-level schemes, ranging from authentication, encryption, authenticated encryption up to integrity protection. Therefore, their analysis is crucial to secure cryptographic schemes at their lowest level. With rare exceptions, block-cipher cryptanalysis employs a systematic strategy of investigating known attack techniques. Modern proposals are expected to be evaluated against these techniques. The considerable effort for evaluation, however, demands efforts not only from the designers but also from external sources. The Advanced Encryption Standard (AES) is one of the most widespread block ciphers nowadays. Therefore, it is naturally an interesting target for further analysis. Tweakable block ciphers augment the usual inputs of a secret key and a public plaintext by an additional public input called tweak. Among various proposals through the previous decade, this thesis identifies Kiasu-BC as a noteworthy attempt to construct a tweakable block cipher that is very close to the AES. Hence, its analysis intertwines closely with that of the AES and illustrates the impact of the tweak on its security best. Moreover, it revisits a generic tweakable block cipher Tweak-and-Tweak (TNT) and its instantiation based on the round-reduced AES. The first part investigates the security of the AES against several forms of differential cryptanalysis, developing distinguishers on four to six (out of ten) rounds of AES. For Kiasu-BC, it exploits the additional freedom in the tweak to develop two forms of differential-based attacks: rectangles and impossible differentials. The results on Kiasu-BC consider an additional round compared to attacks on the (untweaked) AES. The authors of TNT had provided an initial security analysis that still left a gap between provable guarantees and attacks. Our analysis conducts a considerable step towards closing this gap. For TNT-AES - an instantiation of TNT built upon the AES round function - this thesis further shows how to transform our distinguisher into a key-recovery attack. Many applications require the simultaneous authentication and encryption of transmitted data. Authenticated encryption (AE) schemes provide both properties. Modern AE schemes usually demand a unique public input called nonce that must not repeat. Though, this requirement cannot always be guaranteed in practice. As part of a remedy, misuse-resistant and robust AE tries to reduce the impact of occasional misuses. However, robust AE considers not only the potential reuse of nonces. Common authenticated encryption also demanded that the entire ciphertext would have to be buffered until the authentication tag has been successfully verified. In practice, this approach is difficult to ensure since the setting may lack the resources for buffering the messages. Moreover, robustness guarantees in the case of misuse are valuable features. The second part of this thesis proposes three authenticated encryption schemes: RIV, SIV-x, and DCT. RIV is robust against nonce misuse and the release of unverified plaintexts. Both SIV-x and DCT provide high security independent from nonce repetitions. As the core under SIV-x, this thesis revisits the proof of a highly secure parallel MAC, PMAC-x, revises its details, and proposes SIV-x as a highly secure authenticated encryption scheme. Finally, DCT is a generic approach to have n-bit secure deterministic AE but without the need of expanding the ciphertext-tag string by more than n bits more than the plaintext. From its first part, this thesis aims to extend the understanding of the (1) cryptanalysis of round-reduced AES, as well as the understanding of (2) AES-like tweakable block ciphers. From its second part, it demonstrates how to simply extend known approaches for (3) robust nonce-based as well as (4) highly secure deterministic authenticated encryption. N2 - Die moderne Kryptographie hat sich zu einem oft unsichtbaren aber essentiellen Teil unserer alltäglichen Kommunikation entwickelt. Protokolle für sichere Authentisierung und Verschlüsselung schützen uns als Gesellschaft in einer Vielzahl von Lebensbereichen, sei es in Nachrichten oder Online-Einkäufen, bis hin zum Schutz von Banktransaktionen oder behördlicher Kommunikation. In den meisten Fällen ist dabei die Sicherstellung von Authentizität und Verschlüsselung von entscheidender Bedeutung. Wie eine Kette ihre Stärke aus den einzelnen Gliedern bezieht, kann jedes kryptographisches Protokoll jedoch nur so sicher sein wie seine darunterliegenden Verfahren und Primitive. Mit den offenen Nominierungswettbewerben haben sich heutige Standards wie zum Beispiel der Advanced Encryption Standard (AES) für Blockchiffren oder der Galois/Counter Mode für authentisierte Verschlüsselung etabliert. Zudem haben sie durch vergangenen zwei Jahrzehnte an Analyse durch die kryptographische Forschergemeinschaft ein hohes Maß an Vertrauen erhalten. Insbesondere in der symmetrischen Kryptographie, die hohen Wert auf Effizienz der Verfahren legt, werden vorwiegend systematische Analysetechniken eingesetzt. Darum ist der Prozess der Verständnisentwicklung und -gewinnung nie abgeschlossen, sondern Bedarf neuer Blickwinkel und Ideen. Als die Kernkomponenten der täglichen Internetkommunikation sind dabei Blockchiffren und Verfahren zur authentisierten Verschlüsselung dabei von besonderem Interesse. Diese Dissertation gliedert sich in zwei Hauptteile die insgesamt sechs Beiträge beinhalten. Der erste Teil ist der Analyse von AES-basierten (tweakable) Blockchiffren gewidmet. Der zweite Teil stellt neue Konstruktionen für robuste authentisierte Verschlüsselung mit hohen Sicherheitsgarantien vor. Die Kryptanalyse versucht nicht-ideale Eigenschaften in den Ausgaben kryptographischer Systeme zu finden. Blockchiffren als wichtige Grundbausteine der symmetrischen Kryptographie sind hierbei von besonderem Interesse, da sie die Grundlage für die Konstruktion sicherer Verfahren für Authentisierung oder Verschlüsselung darstellen. Diese wiederum schützen in Protokollen in einer Vielzahl von Anwendungen uns in unserem Alltag. Die Analyse von Blockchiffren als Grundoperationen ist daher essentiell um die Sicherheit darauf aufbauender Verfahren verstehen zu können. Der AES ist wahrscheinlich die derzeit am weitesten verbreitete moderne Blockchiffre, was ihn allein bereits zum hochinteressanten Studienobjekt macht. Tweakable Blockchiffren ergänzen ihre klassischen Vorbilder um einen zusätzlichen öffentlichen Input, den Tweak, was insbesondere in der jüngeren Vergangenheit zu effizienteren oder sichereren Verfahren geführt hat. AES-basierte Konstruktionen versuchen von der Vielzahl der existierenden bekannten Eigenschaften des AES und seiner Effizienz zu profitieren. Die Rolle des Tweaks für die Sicherheit ist allerdings nicht völlig verstanden. Ihre Analyse ist daher von besonderem Interesse. Der erste Teil dieser Thesis stellt eine neue Sichtweise der differentiellen Analyse von vier bis sechs Runden AES vor. Im weiteren Verlauf betrachtet sie differentielle Angriffe auf Kiasu-BC, eine Tweakable Blockchiffre auf Basis des AES, die versucht, so nah wie möglich am Design des AES zu bleiben. Somit kann ihre Analyse die durch den Tweak hervorgerufenen Unterschiede genauer beleuchten als das bei dedizierten Konstruktion möglich wäre. Abschließend analysiert der erste Teil Tweak-and-Tweak (TNT), eine generische Transformation einer klassischen in eine tweakable Blockchiffre, sowie ihre Instanz TNT-AES. Durch einen besseren Sicherheitsbeweis von TNT schließt sie die Lücke (mit Ausnahme eines logarithmischen Faktors) zwischen ihrer vorher bewiesenen Sicherheit und bekannten Angriffen. Eine Vielzahl von Anwendungen für Authentisierung oder Verschlüsselung benötigen beide Eigenschaften simultan. Darum sind Verfahren für die Authentisierte Verschlüsselung (AE Schemes) aus dem täglichen Gebrauch nicht mehr wegzudenken. Bis vor einigen Jahren waren die Anforderungen an den Gebrauch von AE Schemes allerdings sehr restriktiv: Moderne AE Schemes erfordern in der Regel für jede zu verschlüsselnde Nachricht einen Input der sich nicht wiederholen darf, eine Nonce. Nonces sind allgemein akzeptiert und sinnvoll - ihre Einmaligkeit kann jedoch nicht über alle Anwendungsumgebungen hinweg garantiert werden. Für viele Konstruktionen bedeutet eine Verletzung der Anforderungen allerdings dass keinerlei Sicherheit mehr gewährleistet werden kann. Robuste AE Schemes wurden eingeführt um den Schaden möglichst auch im Fall von Nonce-Wiederholungen Sicherheit zu garantieren. Derartige Verfahren bedenken darüberhinaus auch den Fall, dass ungültige Klartexte unbeabsichtigt nach außen gelangen, was insbesondere in Umgebungen relevant ist, in denen sie nicht bis zur erfolgreichen Verifikation gespeichert werden können. Die vorliegende Arbeit stellt drei blockchiffrenbasierte Verfahren für misuse-resiliente authentisierte Verschlüsselung vor: RIV, SIV-x und DCT. RIV bietet Robustheit gegen Nonce-Wiederholungen wie auch gegen die Fälle in denen Informationen über ungültige Entschlüsselungen nach außen gelangen. SIV-x und DCT bieten sehr hohe Sicherheitsgarantien ohne auf Nonces angewiesen zu sein, jeweils basierend auf tweakable Blockchiffren. Im ersten Teil möchte die vorliegende Arbeit zum Einen das Verständnis der differentiellen Sicherheit des rundenreduzierten AES hin zu Unterscheidungsangriffen mit extrem kleinen, aber dennoch signifikanten Differenzen ergänzen. Zum Anderen erweitert dieser Teil die Analyse AES-ähnlicher Tweakable Blockchiffren. Der zweite Teil ergänzt zum Einen mit RIV das Portfolio robuster authentisierter Verschlüsselungsverfahren und zeigt wie diese effizient implementiert werden können. Zum Anderen zeigt er mit SIV-x und DCT, wie deterministische authentisierte Verschlüsselung mit hohen Sicherheitsanforderungen mit zwei Iterationen von denen nur eine pseudozufällig sein muss realisiert werden können. KW - Kryptologie KW - Cryptography KW - Symmetric-key cryptography KW - Cryptanalysis KW - Provable security KW - Encryption Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20211103-45235 ER -