TY - THES A1 - Mthunzi, Everett T1 - Interactive Surface Environments: Design and Implementation N2 - This dissertation presents three studies on the design and implementation of interactive surface environments. It puts forward approaches to engineering interactive surface prototypes using prevailing methodologies and technologies. The scholarly findings from each study have been condensed into academic manuscripts, which are conferred herewith. The first study identifies a communication gap between engineers of interactive surface systems (i.e., originators of concepts) and future developers. To bridge the gap, it explores a UML-based framework to establish a formal syntax for modeling hardware, middleware, and software of interactive surface prototypes. The proposed framework targets models-as-end-products, towards enabling a shared view of research prototypes thereby facilitating dialogue between concept originators and future developers. The second study positions itself to support developers with an open-source solution for exploiting 3D point clouds for interactive tabletop applications using CPU architectures. Given dense 3D point-cloud representations of tabletop environments, the study aims toward mitigating high computational effort by segmenting candidate interaction regions as a preprocessing step. The study contributes a robust open-source solution for reducing computational costs when leveraging 3D point clouds for interactive tabletop applications. The solution itself is flexible and adaptable to variable interactive surface applications. The third study contributes an archetypal concept for integrating mobile devices as active components in augmented tabletop surfaces. With emphasis on transparent development trails, the study demonstrates the utility of the open-source tool developed in the second study. In addition to leveraging 3D point clouds for real-time interaction, the research considers recent advances in computer vision and wireless communication to realize a modern, interactive tabletop application. A robust strategy that combines spatial augmented reality, point-cloud-based depth perception, CNN-based object detection, and Bluetooth communication is put forward. In addition to seamless communication between adhoc mobile devices and interactive tabletop systems, the archetypal concept demonstrates the benefits of preprocessing point clouds by segmenting candidate interaction regions, as suggested in the second study. Collectively, the studies presented in this dissertation contribute; 1—bridging the gap between originators of interactive surface concepts and future developers, 2— promoting the exploration of 3D point clouds for interactive surface applications using CPU-based architectures, and 3—leveraging 3D point clouds together with emerging CNN-based object detection, and Bluetooth communication technologies to advance existing surface interaction concepts. KW - Mensch-Maschiene-Kommunikation KW - Human-machine communication Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20230704-64065 ER - TY - JOUR A1 - Schwenke, Nicolas A1 - Söbke, Heinrich A1 - Kraft, Eckhard T1 - Potentials and Challenges of Chatbot-Supported Thesis Writing: An Autoethnography JF - Trends in Higher Education N2 - The release of the large language model-based chatbot ChatGPT 3.5 in November 2022 has brought considerable attention to the subject of artificial intelligence, not only to the public. From the perspective of higher education, ChatGPT challenges various learning and assessment formats as it significantly reduces the effectiveness of their learning and assessment functionalities. In particular, ChatGPT might be applied to formats that require learners to generate text, such as bachelor theses or student research papers. Accordingly, the research question arises to what extent writing of bachelor theses is still a valid learning and assessment format. Correspondingly, in this exploratory study, the first author was asked to write his bachelor’s thesis exploiting ChatGPT. For tracing the impact of ChatGPT methodically, an autoethnographic approach was used. First, all considerations on the potential use of ChatGPT were documented in logs, and second, all ChatGPT chats were logged. Both logs and chat histories were analyzed and are presented along with the recommendations for students regarding the use of ChatGPT suggested by a common framework. In conclusion, ChatGPT is beneficial for thesis writing during various activities, such as brainstorming, structuring, and text revision. However, there are limitations that arise, e.g., in referencing. Thus, ChatGPT requires continuous validation of the outcomes generated and thus fosters learning. Currently, ChatGPT is valued as a beneficial tool in thesis writing. However, writing a conclusive thesis still requires the learner’s meaningful engagement. Accordingly, writing a thesis is still a valid learning and assessment format. With further releases of ChatGPT, an increase in capabilities is to be expected, and the research question needs to be reevaluated from time to time. KW - Chatbot KW - Künstliche Intelligenz KW - Hochschulbildung KW - AIEd KW - artificial intelligence KW - academic writing KW - ChatGPT KW - education Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20231207-65016 UR - https://www.mdpi.com/2813-4346/2/4/37 VL - 2023 IS - Volume 2, issue 4 SP - 611 EP - 635 PB - MDPI CY - Basel ER - TY - JOUR A1 - Hahlbrock, David A1 - Braun, Michael A1 - Heidel, Robin A1 - Lemmen, Patrik A1 - Boumann, Roland A1 - Bruckmann, Tobias A1 - Schramm, Dieter A1 - Helm, Volker A1 - Willmann, Jan T1 - Cable Robotic 3D-printing: additive manufacturing on the construction site JF - Construction Robotics N2 - This paper outlines an important step in characterizing a novel field of robotic construction research where a cable-driven parallel robot is used to extrude cementitious material in three-dimensional space, and thus offering a comprehensive new approach to computational design and construction, and to robotic fabrication at larger scales. Developed by the Faculty of Art and Design at Bauhaus-University Weimar (Germany), the faculty of Architecture at the University of Applied Sciences Dortmund (Germany) and the Chair of Mechatronics at the University of Duisburg-Essen (Germany), this approach offers unique advantages over existing additive manufacturing methods: the system is easily transportable and scalable, it does not require additional formwork or scaffolding, and it offers digital integration and informational oversight across the entire design and building process. This paper considers 1) key research components of cable robotic 3D-printing (such as computational design, material exploration, and robotic control), and 2) the integration of these parameters into a unified design and building process. The demonstration of the approach at full-scale is of particular concern. KW - Robotik KW - Automation KW - 3D-Printing KW - Cable-driven parallel robots Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20230124-48791 UR - https://link.springer.com/article/10.1007/s41693-022-00082-3 VL - 2022 SP - 1 EP - 14 PB - Springer International Publishing CY - Cham ER - TY - JOUR A1 - Stadler, Max T1 - Gründerzeit. Hightech und Alternativen der Wissenschaft in West-Berlin JF - NTM Zeitschrift für Geschichte der Wissenschaften, Technik und Medizin N2 - Zu den diversen Unternehmungen sozialbewegter „Gegenwissenschaft“, die um 1980 auf der Bildfläche der BRD erschienen, zählte der 1982 gegründete Berliner Wissenschaftsladen e. V., kurz WILAB – eine Art „alternatives“ Spin-off der Technischen Universität Berlin. Der vorliegende Beitrag situiert die Ausgründung des „Ladens“ im Kontext zeitgenössischer Fortschritte der (regionalen) Forschungs- und Technologiepolitik. Gezeigt wird, wie der deindustrialisierenden Inselstadt, qua „innovationspolitischer“ Gegensteuerung, dabei sogar eine gewisse Vorreiterrolle zukam: über die Stadtgrenzen hinaus sichtbare Neuerungen wie die Gründermesse BIG TECH oder das 1983 eröffnete Berliner Innovations- und Gründerzentrum (BIG), der erste „Incubator“ [sic] der BRD, etwa gingen auf das Konto der 1977/78 lancierten Technologie-Transferstelle der TU Berlin, TU-transfer. Anders gesagt: tendenziell bekam man es hier nun mit Verhältnissen zu tun, die immer weniger mit den Träumen einer „kritischen“, nicht-fremdbestimmten (Gegen‑)Wissenschaft kompatibel waren. Latent konträr zur historiographischen Prominenz des wissenschaftskritischen Zeitgeists fristeten „alternativen“ Zielsetzungen verpflichtete Unternehmungen wie „WILAB“ ein relativ marginalisiertes Nischendasein. Dennoch wirft das am WILAB verfolgte, so gesehen wenig aussichtsreiche Anliegen, eine andere, nämlich „humanere“ Informationstechnologie in die Wege zu leiten, ein instruktives Licht auf die Aufbrüche „unternehmerischer“ Wissenschaft in der BRD um 1980. KW - Berlin KW - Wissenschaftspolitik KW - Gegenwissenschaft KW - Gegenwissen KW - Informatik KW - Strukturkrise Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20230124-48800 UR - https://link.springer.com/article/10.1007/s00048-022-00352-9 VL - 2022 IS - 30 (2022) SP - 599 EP - 632 PB - Basel CY - Birkhäuser ER - TY - THES A1 - Carvalho Daher, Cesar Felipe T1 - Horoskopos: a virtual planetarium for astrology N2 - This report details the development of Horoskopos, a virtual planetarium for astrology. This project was an attempt to develop a learning tool for studying astrological concepts as connected to observational astronomy. The premise that astrology and observational astronomy were once inseparable from each other in ancient times guided the conceptualization of this tool as an interactive planetarium. The main references were existing software and applications for visualization in astrology and astronomy. Professional astrology teachers were consulted in order to understand better the state of astrological teaching and learning, as well as existing tools and practice. Horoskopos was built using the Unity3D development interface, which is based on the C# programming language. It also relied on the Swiss Ephemeris coding interface from Astrodienst. The development process was experimental and many of the needed skills were developed as needed. Usability tests were performed as new features were added to the interface. The final version of Horoskopos is fully usable, with many interactive visualization features and a defined visual identity. It was validated together with professional astrologers for its effectiveness in concept and visualization. KW - Mediendesign KW - Astrologie KW - Astronomie KW - Planetarium KW - Information design KW - Interaction design KW - Astrology KW - Observational astronomy Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20220930-47181 ER - TY - THES A1 - Carvajal Bermúdez, Juan Carlos T1 - New methods of citizen participation based on digital technologies N2 - The current thesis presents research about new methods of citizen participation based on digital technologies. The focus on the research lies on decentralized methods of participation where citizens take the role of co-creators. The research project first conducted a review of the literature on citizen participation, its origins and the different paradigms that have emerged over the years. The literature review also looked at the influence of technologies on participation processes and the theoretical frameworks that have emerged to understand the introduction of technologies in the context of urban development. The literature review generated the conceptual basis for the further development of the thesis. The research begins with a survey of technology enabled participation applications that examined the roles and structures emerging due to the introduction of technology. The results showed that cities use technology mostly to control and monitor urban infrastructure and are rather reluctant to give citizens the role of co-creators. Based on these findings, three case studies were developed. Digital tools for citizen participation were conceived and introduced for each case study. The adoption and reaction of the citizens were observed using three data collection methods. The results of the case studies showed consistently that previous participation and engagement with informal citizen participation are a determinining factor in the potential adoption of digital tools for decentralized engagement. Based on these results, the case studies proposed methods and frameworks that can be used for the conception and introduction of technologies for decentralized citizen participation. KW - Partizipation KW - Beteiligung KW - Technologie KW - Citizen participation KW - Digital technologies Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20220906-47124 ER - TY - THES A1 - Vogler, Verena T1 - A framework for artificial coral reef design: Integrating computational modelling and high precision monitoring strategies for artificial coral reefs – an Ecosystem-aware design approach in times of climate change N2 - Tropical coral reefs, one of the world’s oldest ecosystems which support some of the highest levels of biodiversity on the planet, are currently facing an unprecedented ecological crisis during this massive human-activity-induced period of extinction. Hence, tropical reefs symbolically stand for the destructive effects of human activities on nature [4], [5]. Artificial reefs are excellent examples of how architectural design can be combined with ecosystem regeneration [6], [7], [8]. However, to work at the interface between the artificial and the complex and temporal nature of natural systems presents a challenge, i.a. in respect to the B-rep modelling legacy of computational modelling. The presented doctorate investigates strategies on how to apply digital practice to realise what is an essential bulwark to retain reefs in impossibly challenging times. Beyond the main question of integrating computational modelling and high precision monitoring strategies in artificial coral reef design, this doctorate explores techniques, methods, and linking frameworks to support future research and practice in ecology led design contexts. Considering the many existing approaches for artificial coral reefs design, one finds they often fall short in precisely understanding the relationships between architectural and ecological aspects (e.g. how a surface design and material composition can foster coral larvae settlement, or structural three-dimensionality enhance biodiversity) and lack an integrated underwater (UW) monitoring process. Such a process is necessary in order to gather knowledge about the ecosystem and make it available for design, and to learn whether artificial structures contribute to reef regeneration or rather harm the coral reef ecosystem. For the research, empirical experimental methods were applied: Algorithmic coral reef design, high precision UW monitoring, computational modelling and simulation, and validated through parallel real-world physical experimentation – two Artificial Reef Prototypes (ARPs) in Gili Trawangan, Indonesia (2012–today). Multiple discrete methods and sub techniques were developed in seventeen computational experiments and applied in a way in which many are cross valid and integrated in an overall framework that is offered as a significant contribution to the field. Other main contributions include the Ecosystem-aware design approach, Key Performance Indicators (KPIs) for coral reef design, algorithmic design and fabrication of Biorock cathodes, new high precision UW monitoring strategies, long-term real-world constructed experiments, new digital analysis methods and two new front-end web-based tools for reef design and monitoring reefs. The methodological framework is a finding of the research that has many technical components that were tested and combined in this way for the very first time. In summary, the thesis responds to the urgency and relevance in preserving marine species in tropical reefs during this massive extinction period by offering a differentiated approach towards artificial coral reefs – demonstrating the feasibility of digitally designing such ‘living architecture’ according to multiple context and performance parameters. It also provides an in-depth critical discussion of computational design and architecture in the context of ecosystem regeneration and Planetary Thinking. In that respect, the thesis functions as both theoretical and practical background for computational design, ecology and marine conservation – not only to foster the design of artificial coral reefs technically but also to provide essential criteria and techniques for conceiving them. Keywords: Artificial coral reefs, computational modelling, high precision underwater monitoring, ecology in design. N2 - Charakteristisch für das Zeitalter des Klimawandels sind die durch den Menschen verursachte Meeresverschmutzung sowie ein massiver Rückgang der Artenvielfalt in den Weltmeeren. Tropische Korallenriffe sind als eines der ältesten und artenreichsten Ökosysteme der Erde besonders stark gefährdet und stehen somit symbolisch für die zerstörerischen Auswirkungen menschlicher Aktivitäten auf die Natur [4], [5]. Um dem massiven Rückgang der Korallenriffe entgegenzuwirken, wurden von Menschen künstliche Riffsysteme entwickelt [6], [7]. Sie sind Beispiele dafür, wie Architektur und die Regenerierung von Ökosystemen miteinander verbunden werden können [8]. Eine Verknüpfung von einerseits künstlichen und andererseits komplexen, sich verändernden natürlichen Systemen, stellt jedoch eine Herausforderung dar, u.a. in Bezug auf die Computermodellierung (B-Rep Modellierung). Zum Erhalt der Korallenriffe werden in der vorliegende Doktorarbeit Strategien aus der digitalen Praxis neuartig auf das Entwerfen von künstlichen Korallenriffen angewendet. Die Hauptfrage befasst sich damit, wie der Entwurfsprozess von künstlichen Korallenriffen unter Einbeziehung von Computermodellierung und hochpräzisen Überwachungsstrategien optimiert werden kann. In diesem Zusammenhang werden Techniken, Methoden sowie ein übergeordnetes Framework erforscht, welche zukünftige Forschung und Praxis in Bezug auf Ökologie-geleitete Entwurfsprozesse fördern soll. In Anbetracht der vielen vorhandenen künstlichen Riffsysteme, kann man feststellen, dass die Zusammenhänge zwischen Architektur- und Ökosystem-Anforderungen nicht genau untersucht und dadurch bei der Umsetzung nicht entsprechend berücksichtigt werden. Zum Beispiel wie Oberflächenbeschaffenheit und Materialität eine Ansiedlung von Korallenlarven begünstigt oder wie eine räumlich vielseitige Struktur die Artenvielfalt verbessern kann. Zudem fehlt ein integrierter Unterwasser-Überwachungsprozess, welcher Informationen über das Ökosystem liefert und diese dem Entwurf bereitstellt. Zusätzlich ist eine Unterwasser-Überwachung notwendig, um herauszufinden, ob die künstlichen Riffstrukturen zur Regenerierung beitragen oder dem Ökosystem gänzlich schaden. In dieser Forschungsarbeit werden empirische und experimentelle Methoden angewendet: Algorithmisches Entwerfen für Korallenriffe, hochpräzise Unterwasser-Überwachung, Computermodellierung und -simulation. Die Forschung wird seit 2012 bis heute durch zwei Riffprototypen (Artificial Reef Prototypes – ARPs) in Gili Trawangan, Indonesien validiert. Zusätzlich wurden weitere separate Methoden und Techniken in insgesamt siebzehn computergestützten Experimenten entwickelt und so angewendet, dass viele kreuzvalidiert und in ein Framework integriert sind, welches dann als bedeutender Beitrag dem Forschungsgebiet zur Verfügung steht. Weitere Hauptbeiträge sind der Ökosystem-bewusste Entwurfsansatz (Ecosystem-aware design approach), Key Performance Indicators (KPIs) für das Gestalten von Korallenriffen, algorithmisches Entwerfen und die Herstellung von Biorock-Kathoden, neue hochpräzise Unterwasser-Überwachungsstrategien, reale Langzeitexperimente, neue digitale Analysemethoden, sowie zwei webbasierte Softwareanwendungen für die Gestaltung und die Überwachung von künstlichen Korallenriffen. Das methodische Framework ist das Hauptergebnis der Forschung, da die vielen technischen Komponenten in dieser Weise zum ersten Mal getestet und kombiniert wurden. Zusammenfassend reagiert die vorliegende Doktorarbeit sowohl auf die Dringlichkeit als auch auf die Relevanz der Erhaltung von Artenvielfalt in tropischen Korallenriffen in Zeiten eines massiven Aussterbens, indem sie einen differenzierten Entwurfsansatz für künstliche Korallenriffe offeriert. Die Arbeit zeigt auf, dass ein digitales Entwerfen einer solchen „lebendigen Architektur“ unter Berücksichtigung vielfältiger Anforderungen und Leistungsparametern machbar ist. Zusätzlich bietet sie eine ausführliche kritische Diskussion über die Rolle von computergestützten Entwerfen und Architektur im Zusammenhang mit Regenerierung von Ökosystemen und “Planetary Thinking”. In dieser Hinsicht fungiert die Doktorarbeit als theoretischer und praktischer Hintergrund für computergestütztes Entwerfen, Ökologie und Meeresschutz. Eine Verbesserung des Entwerfens von künstlichen Korallenriffen wird nicht nur auf technischer Ebene aufgezeigt, sondern es werden auch die wesentlichen Kriterien und Techniken für deren Umsetzung benannt. Schlüsselwörter: Künstliche Korallenriffe, Computermodellierung, hochpräzise Unterwasser-Überwachung, Ökologie im Architekturentwurf. KW - Korallenriff KW - Algorithmus KW - Architektur KW - Meeresökologie KW - Software KW - Artificial coral reefs KW - Computational modelling KW - High precision underwater monitoring KW - Ecology in design KW - Künstliche Korallenriffe KW - Unterwasserarchitektur Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20220322-46115 UR - https://artificialreefdesign.com/ SN - 978-3-00-074495-2 N1 - Die URL führt zu 3D Modelle von echten Korallenriffen. ER - TY - THES A1 - Gollub, Tim T1 - Information Retrieval for the Digital Humanities N2 - In ten chapters, this thesis presents information retrieval technology which is tailored to the research activities that arise in the context of corpus-based digital humanities projects. The presentation is structured by a conceptual research process that is introduced in Chapter 1. The process distinguishes a set of five research activities: research question generation, corpus acquisition, research question modeling, corpus annotation, and result dissemination. Each of these research activities elicits different information retrieval tasks with special challenges, for which algorithmic approaches are presented after an introduction of the core information retrieval concepts in Chapter 2. A vital concept in many of the presented approaches is the keyquery paradigm introduced in Chapter 3, which represents an operation that returns relevant search queries in response to a given set of input documents. Keyqueries are proposed in Chapter 4 for the recommendation of related work, and in Chapter 5 for improving access to aspects hidden in the long tail of search result lists. With pseudo-descriptions, a document expansion approach is presented in Chapter 6. The approach improves the retrieval performance for corpora where only bibliographic meta-data is originally available. In Chapter 7, the keyquery paradigm is employed to generate dynamic taxonomies for corpora in an unsupervised fashion. Chapter 8 turns to the exploration of annotated corpora, and presents scoped facets as a conceptual extension to faceted search systems, which is particularly useful in exploratory search settings. For the purpose of highlighting the major topical differences in a sequence of sub-corpora, an algorithm called topical sequence profiling is presented in Chapter 9. The thesis concludes with two pilot studies regarding the visualization of (re)search results for the means of successful result dissemination: a metaphoric interpretation of the information nutrition label, as well as the philosophical bodies, which are 3D-printed search results. N2 - In zehn Kapiteln stellt diese Arbeit Information-Retrieval-Technologien vor, die auf die Forschungsaktivitäten korpusbasierter Digital-Humanities-Projekte zugeschnitten sind. Die Arbeit strukturiert sich an Hand eines konzeptionellen Forschungsprozess der in Kapitel 1 vorgestellt wird. Der Prozess gliedert sich in fünf Forschungsaktivitäten: Die Generierung einer Forschungsfrage, die Korpusakquise, die Modellierung der Forschungsfrage, die Annotation des Korpus sowie die Verbreitung der Ergebnisse. Jede dieser Forschungsaktivitäten bringt unterschiedliche Information-Retrieval-Aufgaben mit besonderen Herausforderungen mit sich, für die, nach einer Einführung in die zentralen Information-Retrieval-Konzepte in Kapitel 2, algorithmische Ansätze vorgestellt werden. Ein wesentliches Konzept der vorgestellten Ansätze ist das in Kapitel 3 eingeführte Keyquery-Paradigma. Hinter dem Paradigma steht eine Suchoperation, die als Antwort auf eine gegebene Menge von Eingabedokumenten relevante Suchanfragen zurückgibt. Keyqueries werden in Kapitel 4 für die Empfehlung verwandter Arbeiten, in Kapitel 5 für die Verbesserung des Zugangs zu Aspekten im Long Tail von Suchergebnislisten vorgeschlagen. Mit Pseudo-Beschreibungen wird in Kapitel 6 ein Ansatz zur Document-Expansion vorgestellt. Der Ansatz verbessert die Suchleistung für Korpora, bei denen ursprünglich nur bibliografische Metadaten vorhanden sind. In Kapitel 7 wird das Keyquery-Paradigma eingesetzt, um auf unüberwachte Weise dynamische Taxonomien für Korpora zu generieren. Kapitel 8 wendet sich der Exploration von annotierten Korpora zu und stellt Scoped Facets als konzeptionelle Erweiterung von facettierten Suchsystemen vor, die besonders in explorativen Suchszenarien nützlich ist. Um die wichtigsten thematischen Unterschiede und Entwicklungen in einer Sequenz von Sub-Korpora hervorzuheben, wird in Kapitel 9 ein Algorithmus zum Topical Sequence Profiling vorgestellt. Die Arbeit schließt mit zwei Pilotstudien zur Visualisierung von Such- bzw. Forschungsergebnissen als Mittel für eine erfolgreiche Ergebnisverbreitung: eine metaphorische Interpretation des Information-Nutrition-Labels, sowie die philosophischen Körper, 3D-gedruckte Suchergebnisse. KW - Information Retrieval KW - Explorative Suche KW - Digital Humanities KW - keyqueries Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20220801-46738 ER - TY - JOUR A1 - Söbke, Heinrich A1 - Lück, Andrea T1 - Framing Algorithm-Driven Development of Sets of Objectives Using Elementary Interactions JF - Applied System Innovation N2 - Multi-criteria decision analysis (MCDA) is an established methodology to support the decision-making of multi-objective problems. For conducting an MCDA, in most cases, a set of objectives (SOO) is required, which consists of a hierarchical structure comprised of objectives, criteria, and indicators. The development of an SOO is usually based on moderated development processes requiring high organizational and cognitive effort from all stakeholders involved. This article proposes elementary interactions as a key paradigm of an algorithm-driven development process for an SOO that requires little moderation efforts. Elementary interactions are self-contained information requests that may be answered with little cognitive effort. The pairwise comparison of elements in the well-known analytical hierarchical process (AHP) is an example of an elementary interaction. Each elementary interaction in the development process presented contributes to the stepwise development of an SOO. Based on the hypothesis that an SOO may be developed exclusively using elementary interactions (EIs), a concept for a multi-user platform is proposed. Essential components of the platform are a Model Aggregator, an Elementary Interaction Stream Generator, a Participant Manager, and a Discussion Forum. While the latter component serves the professional exchange of the participants, the first three components are intended to be automatable by algorithms. The platform concept proposed has been evaluated partly in an explorative validation study demonstrating the general functionality of the algorithms outlined. In summary, the platform concept suggested demonstrates the potential to ease SOO development processes as the platform concept does not restrict the application domain; it is intended to work with little administration moderation efforts, and it supports the further development of an existing SOO in the event of changes in external conditions. The algorithm-driven development of SOOs proposed in this article may ease the development of MCDA applications and, thus, may have a positive effect on the spread of MCDA applications. KW - Multikriteria-Entscheidung KW - Multikriterielle Entscheidungsanalyse KW - multi-criteria decision analysis; KW - set of objectives KW - crowdsourcing KW - platform KW - elementary interaction KW - OA-Publikationsfonds2022 Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20220713-46624 UR - https://www.mdpi.com/2571-5577/5/3/49 VL - 2022 IS - Volume 5, issue 3, article 49 SP - 1 EP - 20 PB - MDPI CY - Basel ER - TY - BOOK A1 - Breuer, Johannes A1 - Bart, Marlene A1 - Freier, Alex Leo A1 - Rünker, Maximilian A1 - Jakubek, Kristin A1 - Rubiano, Juan A1 - Groos, Cora A1 - Šálek, Martin A1 - Fritz, Henrieke A1 - Kokkinidou, Eirini A1 - Richter, Fabian A1 - Liu, Ani A1 - Held, Tobias A1 - Moses, Gabriel S A1 - Blasius, Clara Maria A1 - Spång, Fanny A1 - Bencicova, Evelyn A1 - Rückeis, Julia A1 - Thurow, Katharina A1 - Maas, Frederike A1 - Farfán, Vanessa A1 - Tikka, Emilia A1 - Lee, Sang A1 - Holzheu, Stefanie ED - Breuer, Johannes ED - Bart, Marlene ED - Freier, Alex Leo T1 - Atlas der Datenkörper. Körperbilder in Kunst, Design und Wissenschaft im Zeitalter digitaler Medien N2 - Digitale Technologien und soziale Medien verändern die Selbst- und Körperwahrnehmung und verzerren, verstärken oder produzieren dabei spezifische Körperbilder. Die Beiträger*innen kartographieren diese Phänomene, fragen nach ihrer medialen Existenzweise sowie nach den Möglichkeiten ihrer Kritik. Dabei begegnen sie ihrer Neuartigkeit mit einer transdisziplinären Herangehensweise. Aus sowohl der Perspektive künstlerischer und gestalterischer Forschung als auch der Kunst-, Kultur- und Medienwissenschaft sowie der Psychologie und Neurowissenschaft wird die Landschaft rezenter Körperbilder und Techniken einer digitalen Körperlichkeit untersucht. T3 - Atlas der Datenkörper - 1 KW - Körperbild KW - Kunst KW - Design KW - Digitale Medien KW - Körper KW - Digitalisierung KW - Körper KW - Design KW - Kunst KW - Künstlerische Forschung KW - OA-Publikationsfonds2022 Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20220411-46248 SN - 2750-7483 VL - 2022 PB - transcript Verlag CY - Bielefeld ER - TY - THES A1 - List, Eik T1 - Design, Analysis, and Implementation of Symmetric-key (Authenticated) Ciphers N2 - Modern cryptography has become an often ubiquitous but essential part of our daily lives. Protocols for secure authentication and encryption protect our communication with various digital services, from private messaging, online shopping, to bank transactions or exchanging sensitive information. Those high-level protocols can naturally be only as secure as the authentication or encryption schemes underneath. Moreover, on a more detailed level, those schemes can also at best inherit the security of their underlying primitives. While widespread standards in modern symmetric-key cryptography, such as the Advanced Encryption Standard (AES), have shown to resist analysis until now, closer analysis and design of related primitives can deepen our understanding. The present thesis consists of two parts that portray six contributions: The first part considers block-cipher cryptanalysis of the round-reduced AES, the AES-based tweakable block cipher Kiasu-BC, and TNT. The second part studies the design, analysis, and implementation of provably secure authenticated encryption schemes. In general, cryptanalysis aims at finding distinguishable properties in the output distribution. Block ciphers are a core primitive of symmetric-key cryptography which are useful for the construction of various higher-level schemes, ranging from authentication, encryption, authenticated encryption up to integrity protection. Therefore, their analysis is crucial to secure cryptographic schemes at their lowest level. With rare exceptions, block-cipher cryptanalysis employs a systematic strategy of investigating known attack techniques. Modern proposals are expected to be evaluated against these techniques. The considerable effort for evaluation, however, demands efforts not only from the designers but also from external sources. The Advanced Encryption Standard (AES) is one of the most widespread block ciphers nowadays. Therefore, it is naturally an interesting target for further analysis. Tweakable block ciphers augment the usual inputs of a secret key and a public plaintext by an additional public input called tweak. Among various proposals through the previous decade, this thesis identifies Kiasu-BC as a noteworthy attempt to construct a tweakable block cipher that is very close to the AES. Hence, its analysis intertwines closely with that of the AES and illustrates the impact of the tweak on its security best. Moreover, it revisits a generic tweakable block cipher Tweak-and-Tweak (TNT) and its instantiation based on the round-reduced AES. The first part investigates the security of the AES against several forms of differential cryptanalysis, developing distinguishers on four to six (out of ten) rounds of AES. For Kiasu-BC, it exploits the additional freedom in the tweak to develop two forms of differential-based attacks: rectangles and impossible differentials. The results on Kiasu-BC consider an additional round compared to attacks on the (untweaked) AES. The authors of TNT had provided an initial security analysis that still left a gap between provable guarantees and attacks. Our analysis conducts a considerable step towards closing this gap. For TNT-AES - an instantiation of TNT built upon the AES round function - this thesis further shows how to transform our distinguisher into a key-recovery attack. Many applications require the simultaneous authentication and encryption of transmitted data. Authenticated encryption (AE) schemes provide both properties. Modern AE schemes usually demand a unique public input called nonce that must not repeat. Though, this requirement cannot always be guaranteed in practice. As part of a remedy, misuse-resistant and robust AE tries to reduce the impact of occasional misuses. However, robust AE considers not only the potential reuse of nonces. Common authenticated encryption also demanded that the entire ciphertext would have to be buffered until the authentication tag has been successfully verified. In practice, this approach is difficult to ensure since the setting may lack the resources for buffering the messages. Moreover, robustness guarantees in the case of misuse are valuable features. The second part of this thesis proposes three authenticated encryption schemes: RIV, SIV-x, and DCT. RIV is robust against nonce misuse and the release of unverified plaintexts. Both SIV-x and DCT provide high security independent from nonce repetitions. As the core under SIV-x, this thesis revisits the proof of a highly secure parallel MAC, PMAC-x, revises its details, and proposes SIV-x as a highly secure authenticated encryption scheme. Finally, DCT is a generic approach to have n-bit secure deterministic AE but without the need of expanding the ciphertext-tag string by more than n bits more than the plaintext. From its first part, this thesis aims to extend the understanding of the (1) cryptanalysis of round-reduced AES, as well as the understanding of (2) AES-like tweakable block ciphers. From its second part, it demonstrates how to simply extend known approaches for (3) robust nonce-based as well as (4) highly secure deterministic authenticated encryption. N2 - Die moderne Kryptographie hat sich zu einem oft unsichtbaren aber essentiellen Teil unserer alltäglichen Kommunikation entwickelt. Protokolle für sichere Authentisierung und Verschlüsselung schützen uns als Gesellschaft in einer Vielzahl von Lebensbereichen, sei es in Nachrichten oder Online-Einkäufen, bis hin zum Schutz von Banktransaktionen oder behördlicher Kommunikation. In den meisten Fällen ist dabei die Sicherstellung von Authentizität und Verschlüsselung von entscheidender Bedeutung. Wie eine Kette ihre Stärke aus den einzelnen Gliedern bezieht, kann jedes kryptographisches Protokoll jedoch nur so sicher sein wie seine darunterliegenden Verfahren und Primitive. Mit den offenen Nominierungswettbewerben haben sich heutige Standards wie zum Beispiel der Advanced Encryption Standard (AES) für Blockchiffren oder der Galois/Counter Mode für authentisierte Verschlüsselung etabliert. Zudem haben sie durch vergangenen zwei Jahrzehnte an Analyse durch die kryptographische Forschergemeinschaft ein hohes Maß an Vertrauen erhalten. Insbesondere in der symmetrischen Kryptographie, die hohen Wert auf Effizienz der Verfahren legt, werden vorwiegend systematische Analysetechniken eingesetzt. Darum ist der Prozess der Verständnisentwicklung und -gewinnung nie abgeschlossen, sondern Bedarf neuer Blickwinkel und Ideen. Als die Kernkomponenten der täglichen Internetkommunikation sind dabei Blockchiffren und Verfahren zur authentisierten Verschlüsselung dabei von besonderem Interesse. Diese Dissertation gliedert sich in zwei Hauptteile die insgesamt sechs Beiträge beinhalten. Der erste Teil ist der Analyse von AES-basierten (tweakable) Blockchiffren gewidmet. Der zweite Teil stellt neue Konstruktionen für robuste authentisierte Verschlüsselung mit hohen Sicherheitsgarantien vor. Die Kryptanalyse versucht nicht-ideale Eigenschaften in den Ausgaben kryptographischer Systeme zu finden. Blockchiffren als wichtige Grundbausteine der symmetrischen Kryptographie sind hierbei von besonderem Interesse, da sie die Grundlage für die Konstruktion sicherer Verfahren für Authentisierung oder Verschlüsselung darstellen. Diese wiederum schützen in Protokollen in einer Vielzahl von Anwendungen uns in unserem Alltag. Die Analyse von Blockchiffren als Grundoperationen ist daher essentiell um die Sicherheit darauf aufbauender Verfahren verstehen zu können. Der AES ist wahrscheinlich die derzeit am weitesten verbreitete moderne Blockchiffre, was ihn allein bereits zum hochinteressanten Studienobjekt macht. Tweakable Blockchiffren ergänzen ihre klassischen Vorbilder um einen zusätzlichen öffentlichen Input, den Tweak, was insbesondere in der jüngeren Vergangenheit zu effizienteren oder sichereren Verfahren geführt hat. AES-basierte Konstruktionen versuchen von der Vielzahl der existierenden bekannten Eigenschaften des AES und seiner Effizienz zu profitieren. Die Rolle des Tweaks für die Sicherheit ist allerdings nicht völlig verstanden. Ihre Analyse ist daher von besonderem Interesse. Der erste Teil dieser Thesis stellt eine neue Sichtweise der differentiellen Analyse von vier bis sechs Runden AES vor. Im weiteren Verlauf betrachtet sie differentielle Angriffe auf Kiasu-BC, eine Tweakable Blockchiffre auf Basis des AES, die versucht, so nah wie möglich am Design des AES zu bleiben. Somit kann ihre Analyse die durch den Tweak hervorgerufenen Unterschiede genauer beleuchten als das bei dedizierten Konstruktion möglich wäre. Abschließend analysiert der erste Teil Tweak-and-Tweak (TNT), eine generische Transformation einer klassischen in eine tweakable Blockchiffre, sowie ihre Instanz TNT-AES. Durch einen besseren Sicherheitsbeweis von TNT schließt sie die Lücke (mit Ausnahme eines logarithmischen Faktors) zwischen ihrer vorher bewiesenen Sicherheit und bekannten Angriffen. Eine Vielzahl von Anwendungen für Authentisierung oder Verschlüsselung benötigen beide Eigenschaften simultan. Darum sind Verfahren für die Authentisierte Verschlüsselung (AE Schemes) aus dem täglichen Gebrauch nicht mehr wegzudenken. Bis vor einigen Jahren waren die Anforderungen an den Gebrauch von AE Schemes allerdings sehr restriktiv: Moderne AE Schemes erfordern in der Regel für jede zu verschlüsselnde Nachricht einen Input der sich nicht wiederholen darf, eine Nonce. Nonces sind allgemein akzeptiert und sinnvoll - ihre Einmaligkeit kann jedoch nicht über alle Anwendungsumgebungen hinweg garantiert werden. Für viele Konstruktionen bedeutet eine Verletzung der Anforderungen allerdings dass keinerlei Sicherheit mehr gewährleistet werden kann. Robuste AE Schemes wurden eingeführt um den Schaden möglichst auch im Fall von Nonce-Wiederholungen Sicherheit zu garantieren. Derartige Verfahren bedenken darüberhinaus auch den Fall, dass ungültige Klartexte unbeabsichtigt nach außen gelangen, was insbesondere in Umgebungen relevant ist, in denen sie nicht bis zur erfolgreichen Verifikation gespeichert werden können. Die vorliegende Arbeit stellt drei blockchiffrenbasierte Verfahren für misuse-resiliente authentisierte Verschlüsselung vor: RIV, SIV-x und DCT. RIV bietet Robustheit gegen Nonce-Wiederholungen wie auch gegen die Fälle in denen Informationen über ungültige Entschlüsselungen nach außen gelangen. SIV-x und DCT bieten sehr hohe Sicherheitsgarantien ohne auf Nonces angewiesen zu sein, jeweils basierend auf tweakable Blockchiffren. Im ersten Teil möchte die vorliegende Arbeit zum Einen das Verständnis der differentiellen Sicherheit des rundenreduzierten AES hin zu Unterscheidungsangriffen mit extrem kleinen, aber dennoch signifikanten Differenzen ergänzen. Zum Anderen erweitert dieser Teil die Analyse AES-ähnlicher Tweakable Blockchiffren. Der zweite Teil ergänzt zum Einen mit RIV das Portfolio robuster authentisierter Verschlüsselungsverfahren und zeigt wie diese effizient implementiert werden können. Zum Anderen zeigt er mit SIV-x und DCT, wie deterministische authentisierte Verschlüsselung mit hohen Sicherheitsanforderungen mit zwei Iterationen von denen nur eine pseudozufällig sein muss realisiert werden können. KW - Kryptologie KW - Cryptography KW - Symmetric-key cryptography KW - Cryptanalysis KW - Provable security KW - Encryption Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20211103-45235 ER - TY - THES A1 - Berhe, Asgedom Haile T1 - Mitigating Risks of Corruption in Construction: A theoretical rationale for BIM adoption in Ethiopia N2 - This PhD thesis sets out to investigate the potentials of Building Information Modeling (BIM) to mitigate risks of corruption in the Ethiopian public construction sector. The wide-ranging capabilities and promises of BIM have led to the strong perception among researchers and practitioners that it is an indispensable technology. Consequently, it has become the frequent subject of science and research. Meanwhile, many countries, especially the developed ones, have committed themselves to applying the technology extensively. Increasing productivity is the most common and frequently cited reason for that. However, both technology developers and adopters are oblivious to the potentials of BIM in addressing critical challenges in the construction sector, such as corruption. This particularly would be significant in developing countries like Ethiopia, where its problems and effects are acute. Studies reveal that bribery and corruption have long pervaded the construction industry worldwide. The complex and fragmented nature of the sector provides an environment for corruption. The Ethiopian construction sector is not immune from this epidemic reality. In fact, it is regarded as one of the most vulnerable sectors owing to varying socio-economic and political factors. Since 2015, Ethiopia has started adopting BIM, yet without clear goals and strategies. As a result, the potential of BIM for combating concrete problems of the sector remains untapped. To this end, this dissertation does pioneering work by showing how collaboration and coordination features of the technology contribute to minimizing the opportunities for corruption. Tracing loopholes, otherwise, would remain complex and ineffective in the traditional documentation processes. Proceeding from this anticipation, this thesis brings up two primary questions: what are areas and risks of corruption in case of the Ethiopian public construction projects; and how could BIM be leveraged to mitigate these risks? To tackle these and other secondary questions, the research employs a mixed-method approach. The selected main research strategies are Survey, Grounded Theory (GT) and Archival Study. First, the author disseminates an online questionnaire among Ethiopian construction engineering professionals to pinpoint areas of vulnerability to corruption. 155 responses are compiled and scrutinized quantitatively. Then, a semi-structured in-depth interview is conducted with 20 senior professionals, primarily to comprehend opportunities for and risks of corruption in those identified highly vulnerable project stages and decision points. At the same time, open interviews (consultations) are held with 14 informants to be aware of state of the construction documentation, BIM and loopholes for corruption in the country. Consequently, these qualitative data are analyzed utilizing the principles of GT, heat/risk mapping and Social Network Analysis (SNA). The risk mapping assists the researcher in the course of prioritizing corruption risks; whilst through SNA, methodically, it is feasible to identify key actors/stakeholders in the corruption venture. Based on the generated research data, the author constructs a [substantive] grounded theory around the elements of corruption in the Ethiopian public construction sector. This theory, later, guides the subsequent strategic proposition of BIM. Finally, 85 public construction related cases are also analyzed systematically to substantiate and confirm previous findings. By ways of these multiple research endeavors that is based, first and foremost, on the triangulation of qualitative and quantitative data analysis, the author conveys a number of key findings. First, estimations, tender document preparation and evaluation, construction material as well as quality control and additional work orders are found to be the most vulnerable stages in the design, tendering and construction phases respectively. Second, middle management personnel of contractors and clients, aided by brokers, play most critical roles in corrupt transactions within the prevalent corruption network. Third, grand corruption persists in the sector, attributed to the fact that top management and higher officials entertain their overriding power, supported by the lack of project audits and accountability. Contrarily, individuals at operation level utilize intentional and unintentional 'errors’ as an opportunity for corruption. In light of these findings, two conceptual BIM-based risk mitigation strategies are prescribed: active and passive automation of project audits; and the monitoring of project information throughout projects’ value chain. These propositions are made in reliance on BIM’s present dimensional capabilities and the promises of Integrated Project Delivery (IPD). Moreover, BIM’s synchronous potentials with other technologies such as Information and Communication Technology (ICT), and Radio Frequency technologies are topics which received a treatment. All these arguments form the basis for the main thesis of this dissertation, that BIM is able to mitigate corruption risks in the Ethiopian public construction sector. The discourse on the skepticisms about BIM that would stem from the complex nature of corruption and strategic as well as technological limitations of BIM is also illuminated and complemented by this work. Thus, the thesis uncovers possible research gaps and lays the foundation for further studies. KW - Building Information Modeling KW - Korruption KW - Risikomanagement KW - Äthiopien KW - Corruption KW - BIM KW - Risk management KW - Construction KW - Ethiopia Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20211007-45175 ER - TY - THES A1 - Preis Dutra, Joatan T1 - Cultural Heritage on Mobile Devices: Building Guidelines for UNESCO World Heritage Sites' Apps N2 - Technological improvements and access provide a fertile scenario for creating and developing mobile applications (apps). This scenario results in a myriad of Apps providing information regarding touristic destinations, including those with a cultural profile, such as those dedicated to UNESCO World Heritage Sites (WHS). However, not all of the Apps have the same efficiency. In order to have a successful app, its development must consider usability aspects and features aligned with reliable content. Despite the guidelines for mobile usability being broadly available, they are generic, and none of them concentrates specifically into cultural heritage places, especially on those placed in an open-air scenario. This research aims to fulfil this literature gap and discusses how to adequate and develop specific guidelines for a better outdoor WHS experience. It uses an empirical approach applied to an open-air WHS city: Weimar and its Bauhaus and Classical Weimar sites. In order to build a new set of guidelines applied for open-air WHS, this research used a systematic approach to compare literature-based guidelines to industry-based ones (based on affordances), extracted from the available Apps dedicated to WHS set in Germany. The instructions compiled from both sources have been comparatively tested by using two built prototypes from the distinctive guidelines, creating a set of recommendations collecting the best approach from both sources, plus suggesting new ones the evaluation. N2 - Der technische Fortschritt und der Zugang dazu bieten ein ertragreiches Szenario für die Innovation und Entwicklung mobiler Anwendungen (Apps). Daraus ist eine Vielzahl von zu Verfügung stehenden Apps entstanden, die Informationen über touristische Reiseziele bereitstellen, insbesondere solche mit einem kulturellen Hintergrund, etwa die, die zum UNESCO Welterbe/Weltkulturebe (auf Englisch WHS – World Heritage Sites, fotan so genannt in dieser Arteit) gehören. Allerdings haben nicht alle Apps die gleiche Effizienz. Um eine erfolgreiche App entwickeln zu können, sollten gleichzeitig die Benutzerfreundlichkeit der Aspekte und Funktionen in Betracht gezogen werden, als auch Zuverlässigkeit ihrer Inhalte. Obwohl die Richtlinien für eine mobile Benutzerfreundlichkeit weit verbreitet sind, sind diese jedoch generisch. Keine Richtlinie ist eindeutig auf Orte des Kulturerbes zugeschnitten, schon gar nicht auf Standorte, die sich im Freien befinden. Ziel dieser Arbeit ist es, diese Literaturlücke zu schließen und gleichzeitig nahe zu bringen, wie bestimmte Richtlinien angepasst und ausgebaut werden könnten, um bessere WHS-Erlebnisse im Freien zu schaffen. Die Arbeit geht empirisch vor am Beispiel der deutschen Stadt Weimar, die mit ihren Altstadt- und Bauhaus-Standorten als Freiluft-WHS gilt. Deutschland ist das fünftbedeutsamste Land der UNESCO-Liste und bekannt für sein technologisches Profil und der Zugang dazu. Dieses Land als geeignete Umgebung für den empirischen Ansatz zu wählen ist ein guter Ausgangspunkt, um Erfahrungen zu sammeln für innovative Projekte, die mit Apps das Kulturerbe erschließen. Um eine Reihe neuer Richtlinien für Freiluft-WHS (auf Englisch: Open-Air WHS) aufstellen zu können, wurden im Rahmen dieser Arbeit Richtlinien aus akademischen Quellen mit branchenüblichen Richtlinien verglichen, gewonnen aus einer umfangreichen Auszug verfügbarer Apps, die sich den WHS in Deutschland widmen. Im branchenüblichen Ansatz wurden WHS-bezogene Apps ausgewählt, die auf dem deutschen App-Markt erhältlich sind (für iOS- und Android-Geräte). Deren Eigenschaften und Gebrauch wurden aus der Nutzersicht betrachtet. Daraus ließen sich Gemeinsamkeiten ableiten innerhalb der aktuellen Funktionen und Tools, mit denen WHS beworben werden. Die Analyse förderte Richtlinien hervor fand aus der Layout-, Navigations-, Design- und der Inhaltsperspektive. Daraus wurde eine Prototyp-App erstellt, die dem in der Branche verzeichneten Stand der Technik entspricht. Während die Richtlinien aus der Branchenübersicht einen Beobachtungsansatz der Leistungen verfolgten, bezogen die aus der Literaturrecherche gewonnenen Richtlinien einen systematischen Ansatz des akademischen Materials. Der literaturbasierte Ansatz wurde aus Veröffentlichungen zur Benutzerfreundlichkeit mobiler Apps gewonnen, die in Forschungsdatenbanken erhältlich sind. Zusätzlich wurden in führenden Unternehmen für die Entwicklung von mobilen Betriebssystemen (iOS und Android) bereits vorhandene Modelle zur Nutzerfreundlichkeit sowie offizielle Richtlinien einbezogen, die unterschiedliche Ansätze sowie Ansichten für das Design mobiler Schnittstellen verbinden und kombinieren und die für WHS genutzt werden könnten. Unter Rücksichtnahme der Vielfalt der Besucherprofile in Weimar wurden auch Studien über Nutzeroberflächen für ältere Nutzer eingeschlossen. Obwohl die Leitlinien sich nicht auf didaktische Funktionen konzentrieren, wurden auch Studien über das mobile Lernen in der Studie mitaufgenommen, sofern die Nutzeroberfläche Teil des Studienziels war. Diese Entscheidung wurde getroffen, weil die Stadt Weimar auch jugendliche Studenten als Besucher hat, die die historischen Sehenswürdigkeiten der Stadt besuchen und kennenlernen. Allgemein konzentrierte sich diese Ausarbeitung auf klare Anweisungen, die in Richtlinien umgesetzt werden könnten. Die Analyse beschränkte sich jedoch nicht auf die Auswahlliste der Studienobjekte und wurde extrapoliert, unter Berücksichtigung relevanter Referenzen, die in den für die Stichprobe ausgewählten Veröffentlichungen zitiert wurden. Wann immer eine Leitlinie oder Empfehlung gefunden werden konnte, wurde diese, verfahrensgemäß in eine Tabelle eingefügt, einer ähnlichen Struktur folgend zu den aus der Übersicht der App-Industrie gewonnenen Richtlinien. Um den Erkenntnissen der Literaturrecherche zu entsprechen, wurden neue Kategorien hinzugefügt. Im Großen und Ganzen bestätigten einige Richtlinien des literarischen Ansatzes die Anweisungen des branchenorientierten Ansatzes, andere widersprachen diesen. Dadurch konnte ein neuer Satz von Leitlinien entstehen, die gegeneinander getestet wurden. Der Inhalt beider Prototypen (branchen- und literaturbasiert) wurden ausgearbeitet, um das WHS in Weimar anzusprechen. Dabei wurden Inhalte abgerufen, die auf der offiziellen touristischen Website der Stadt und in der größten Kulturstiftung Weimars, der Klassik Stiftung, verfügbar sind. Die Nutzung zweier verschiedener einfache Prototypen bot die Möglichkeit, auch andere Funktionen zu testen wie z. B. verschiedene Arten der Anzeige von Karten und Inhalten. Zur Überprüfung und Gegenüberstellung der verschiedenen Leitlinien, wurden ein aufgabenbasierter Test und eine vergleichende Bewertungsumfrage durchgeführt. Tester aus verschiedenen Altersgruppen führten in beiden Prototypen eine Reihe vordefinierter Aufgaben aus und beantworteten einen Fragebogen, wobei die in beiden Versionen vorgestellten Funktionen und Formate verglichen werden konnten. Die Fragen sollten anhand eine Auswahl vordefinierter Antworten von Nutzern beantwortet werden, ideal für eine statistische Auswertung, insbesondere zum Thema Benutzerzufriedenheit. Auch offene Fragen, zur Leistung persönliche Beiträge der Tester, wurden angeboten. Diese Methode war ausschlaggebend dafür, beide Richtliniensätze (Industrie vs. Literaturrecherche) gegeneinander zu vergleichen und zu analysieren, So konnte ein idealer Ansatz gefunden werden für Richtlinien von Apps, die sich mit Welterbestätten unter freiem Himmel befassen. Auch weitere Empfehlungen, die sich aus der Bewertung ergaben, konnten hinzugefügt werden. Das Ergebnis führt zu einem umfassendem Satz von Richtlinien, die in zukünftigen touristischen Open-Air-Apps angewandt werden können, die sich mit Weltkulturerbestätten befassen. KW - Benutzerschnittstellenentwurfssystem KW - Welterbe KW - Benutzerfreundlichkeit KW - App KW - Mobiles Endgerät KW - Interface Design KW - world heritage sites KW - usability KW - mobile devices Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20211129-45319 UR - www.joatan.com.br/docs/Thesis_JoatanPreisDutra.pdf ER - TY - JOUR A1 - Meiabadi, Mohammad Saleh A1 - Moradi, Mahmoud A1 - Karamimoghadam, Mojtaba A1 - Ardabili, Sina A1 - Bodaghi, Mahdi A1 - Shokri, Manouchehr A1 - Mosavi, Amir Hosein T1 - Modeling the Producibility of 3D Printing in Polylactic Acid Using Artificial Neural Networks and Fused Filament Fabrication JF - polymers N2 - Polylactic acid (PLA) is a highly applicable material that is used in 3D printers due to some significant features such as its deformation property and affordable cost. For improvement of the end-use quality, it is of significant importance to enhance the quality of fused filament fabrication (FFF)-printed objects in PLA. The purpose of this investigation was to boost toughness and to reduce the production cost of the FFF-printed tensile test samples with the desired part thickness. To remove the need for numerous and idle printing samples, the response surface method (RSM) was used. Statistical analysis was performed to deal with this concern by considering extruder temperature (ET), infill percentage (IP), and layer thickness (LT) as controlled factors. The artificial intelligence method of artificial neural network (ANN) and ANN-genetic algorithm (ANN-GA) were further developed to estimate the toughness, part thickness, and production-cost-dependent variables. Results were evaluated by correlation coefficient and RMSE values. According to the modeling results, ANN-GA as a hybrid machine learning (ML) technique could enhance the accuracy of modeling by about 7.5, 11.5, and 4.5% for toughness, part thickness, and production cost, respectively, in comparison with those for the single ANN method. On the other hand, the optimization results confirm that the optimized specimen is cost-effective and able to comparatively undergo deformation, which enables the usability of printed PLA objects. KW - 3D-Druck KW - Polymere KW - Maschinelles Lernen KW - 3D printing KW - machine learning KW - fused filament fabrication KW - OA-Publikationsfonds2021 Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20220110-45518 UR - https://www.mdpi.com/2073-4360/13/19/3219 VL - 2021 IS - Volume 13, issue 19, article 3219 SP - 1 EP - 21 PB - MDPI CY - Basel ER - TY - THES A1 - Al Khatib, Khalid T1 - Computational Analysis of Argumentation Strategies N2 - The computational analysis of argumentation strategies is substantial for many downstream applications. It is required for nearly all kinds of text synthesis, writing assistance, and dialogue-management tools. While various tasks have been tackled in the area of computational argumentation, such as argumentation mining and quality assessment, the task of the computational analysis of argumentation strategies in texts has so far been overlooked. This thesis principally approaches the analysis of the strategies manifested in the persuasive argumentative discourses that aim for persuasion as well as in the deliberative argumentative discourses that aim for consensus. To this end, the thesis presents a novel view of argumentation strategies for the above two goals. Based on this view, new models for pragmatic and stylistic argument attributes are proposed, new methods for the identification of the modelled attributes have been developed, and a new set of strategy principles in texts according to the identified attributes is presented and explored. Overall, the thesis contributes to the theory, data, method, and evaluation aspects of the analysis of argumentation strategies. The models, methods, and principles developed and explored in this thesis can be regarded as essential for promoting the applications mentioned above, among others. KW - Argumentation KW - Natürliche Sprache KW - Argumentation Strategies KW - Sprachverarbeitung KW - Natural Language Processing KW - Computational Argumentation Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20210719-44612 ER - TY - JOUR A1 - Ahmadi, Mohammad Hossein A1 - Baghban, Alireza A1 - Sadeghzadeh, Milad A1 - Zamen, Mohammad A1 - Mosavi, Amir A1 - Shamshirband, Shahaboddin A1 - Kumar, Ravinder A1 - Mohammadi-Khanaposhtani, Mohammad T1 - Evaluation of electrical efficiency of photovoltaic thermal solar collector JF - Engineering Applications of Computational Fluid Mechanics N2 - In this study, machine learning methods of artificial neural networks (ANNs), least squares support vector machines (LSSVM), and neuro-fuzzy are used for advancing prediction models for thermal performance of a photovoltaic-thermal solar collector (PV/T). In the proposed models, the inlet temperature, flow rate, heat, solar radiation, and the sun heat have been considered as the input variables. Data set has been extracted through experimental measurements from a novel solar collector system. Different analyses are performed to examine the credibility of the introduced models and evaluate their performances. The proposed LSSVM model outperformed the ANFIS and ANNs models. LSSVM model is reported suitable when the laboratory measurements are costly and time-consuming, or achieving such values requires sophisticated interpretations. KW - Fotovoltaik KW - Erneuerbare Energien KW - Solar KW - Deep learning KW - Machine learning KW - Renewable energy KW - neural networks (NNs) KW - adaptive neuro-fuzzy inference system (ANFIS) KW - least square support vector machine (LSSVM) KW - photovoltaic-thermal (PV/T) KW - hybrid machine learning model KW - OA-Publikationsfonds2020 Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20200304-41049 UR - https://www.tandfonline.com/doi/full/10.1080/19942060.2020.1734094 VL - 2020 IS - volume 14, issue 1 SP - 545 EP - 565 PB - Taylor & Francis ER - TY - JOUR A1 - Mosavi, Amir A1 - Shamshirband, Shahaboddin A1 - Esmaeilbeiki, Fatemeh A1 - Zarehaghi, Davoud A1 - Neyshabouri, Mohammadreza A1 - Samadianfard, Saeed A1 - Ghorbani, Mohammad Ali A1 - Nabipour, Narjes A1 - Chau, Kwok-Wing T1 - Comparative analysis of hybrid models of firefly optimization algorithm with support vector machines and multilayer perceptron for predicting soil temperature at different depths JF - Engineering Applications of Computational Fluid Mechanics N2 - This research aims to model soil temperature (ST) using machine learning models of multilayer perceptron (MLP) algorithm and support vector machine (SVM) in hybrid form with the Firefly optimization algorithm, i.e. MLP-FFA and SVM-FFA. In the current study, measured ST and meteorological parameters of Tabriz and Ahar weather stations in a period of 2013–2015 are used for training and testing of the studied models with one and two days as a delay. To ascertain conclusive results for validation of the proposed hybrid models, the error metrics are benchmarked in an independent testing period. Moreover, Taylor diagrams utilized for that purpose. Obtained results showed that, in a case of one day delay, except in predicting ST at 5 cm below the soil surface (ST5cm) at Tabriz station, MLP-FFA produced superior results compared with MLP, SVM, and SVM-FFA models. However, for two days delay, MLP-FFA indicated increased accuracy in predicting ST5cm and ST 20cm of Tabriz station and ST10cm of Ahar station in comparison with SVM-FFA. Additionally, for all of the prescribed models, the performance of the MLP-FFA and SVM-FFA hybrid models in the testing phase was found to be meaningfully superior to the classical MLP and SVM models. KW - Bodentemperatur KW - Algorithmus KW - Maschinelles Lernen KW - Neuronales Netz KW - firefly optimization algorithm KW - soil temperature KW - artificial neural networks KW - hybrid machine learning KW - OA-Publikationsfonds2019 Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20200911-42347 UR - https://www.tandfonline.com/doi/full/10.1080/19942060.2020.1788644 VL - 2020 IS - Volume 14, Issue 1 SP - 939 EP - 953 ER - TY - JOUR A1 - Homaei, Mohammad Hossein A1 - Soleimani, Faezeh A1 - Shamshirband, Shahaboddin A1 - Mosavi, Amir A1 - Nabipour, Narjes A1 - Varkonyi-Koczy, Annamaria R. T1 - An Enhanced Distributed Congestion Control Method for Classical 6LowPAN Protocols Using Fuzzy Decision System JF - IEEE Access N2 - The classical Internet of things routing and wireless sensor networks can provide more precise monitoring of the covered area due to the higher number of utilized nodes. Because of the limitations in shared transfer media, many nodes in the network are prone to the collision in simultaneous transmissions. Medium access control protocols are usually more practical in networks with low traffic, which are not subjected to external noise from adjacent frequencies. There are preventive, detection and control solutions to congestion management in the network which are all the focus of this study. In the congestion prevention phase, the proposed method chooses the next step of the path using the Fuzzy decision-making system to distribute network traffic via optimal paths. In the congestion detection phase, a dynamic approach to queue management was designed to detect congestion in the least amount of time and prevent the collision. In the congestion control phase, the back-pressure method was used based on the quality of the queue to decrease the probability of linking in the pathway from the pre-congested node. The main goals of this study are to balance energy consumption in network nodes, reducing the rate of lost packets and increasing quality of service in routing. Simulation results proved the proposed Congestion Control Fuzzy Decision Making (CCFDM) method was more capable in improving routing parameters as compared to recent algorithms. KW - Internet der dinge KW - IOT KW - Internet of things KW - wireless sensor network KW - congestion control KW - fuzzy decision making KW - back-pressure Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20200213-40805 UR - https://ieeexplore.ieee.org/document/8967114 IS - volume 8 SP - 20628 EP - 20645 PB - IEEE ER - TY - JOUR A1 - Hassannataj Joloudari, Javad A1 - Hassannataj Joloudari, Edris A1 - Saadatfar, Hamid A1 - GhasemiGol, Mohammad A1 - Razavi, Seyyed Mohammad A1 - Mosavi, Amir A1 - Nabipour, Narjes A1 - Shamshirband, Shahaboddin A1 - Nadai, Laszlo T1 - Coronary Artery Disease Diagnosis: Ranking the Significant Features Using a Random Trees Model JF - International Journal of Environmental Research and Public Health, IJERPH N2 - Heart disease is one of the most common diseases in middle-aged citizens. Among the vast number of heart diseases, coronary artery disease (CAD) is considered as a common cardiovascular disease with a high death rate. The most popular tool for diagnosing CAD is the use of medical imaging, e.g., angiography. However, angiography is known for being costly and also associated with a number of side effects. Hence, the purpose of this study is to increase the accuracy of coronary heart disease diagnosis through selecting significant predictive features in order of their ranking. In this study, we propose an integrated method using machine learning. The machine learning methods of random trees (RTs), decision tree of C5.0, support vector machine (SVM), and decision tree of Chi-squared automatic interaction detection (CHAID) are used in this study. The proposed method shows promising results and the study confirms that the RTs model outperforms other models. KW - Maschinelles Lernen KW - Machine learning KW - Deep learning KW - coronary artery disease KW - heart disease diagnosis KW - health informatics KW - data science KW - big data KW - predictive model KW - ensemble model KW - random forest KW - industry 4.0 Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20200213-40819 UR - https://www.mdpi.com/1660-4601/17/3/731 VL - 2020 IS - Volume 17, Issue 3, 731 PB - MDPI ER - TY - JOUR A1 - Kargar, Katayoun A1 - Samadianfard, Saeed A1 - Parsa, Javad A1 - Nabipour, Narjes A1 - Shamshirband, Shahaboddin A1 - Mosavi, Amir A1 - Chau, Kwok-Wing T1 - Estimating longitudinal dispersion coefficient in natural streams using empirical models and machine learning algorithms JF - Engineering Applications of Computational Fluid Mechanics N2 - The longitudinal dispersion coefficient (LDC) plays an important role in modeling the transport of pollutants and sediment in natural rivers. As a result of transportation processes, the concentration of pollutants changes along the river. Various studies have been conducted to provide simple equations for estimating LDC. In this study, machine learning methods, namely support vector regression, Gaussian process regression, M5 model tree (M5P) and random forest, and multiple linear regression were examined in predicting the LDC in natural streams. Data sets from 60 rivers around the world with different hydraulic and geometric features were gathered to develop models for LDC estimation. Statistical criteria, including correlation coefficient (CC), root mean squared error (RMSE) and mean absolute error (MAE), were used to scrutinize the models. The LDC values estimated by these models were compared with the corresponding results of common empirical models. The Taylor chart was used to evaluate the models and the results showed that among the machine learning models, M5P had superior performance, with CC of 0.823, RMSE of 454.9 and MAE of 380.9. The model of Sahay and Dutta, with CC of 0.795, RMSE of 460.7 and MAE of 306.1, gave more precise results than the other empirical models. The main advantage of M5P models is their ability to provide practical formulae. In conclusion, the results proved that the developed M5P model with simple formulations was superior to other machine learning models and empirical models; therefore, it can be used as a proper tool for estimating the LDC in rivers. KW - Maschinelles Lernen KW - Gaussian process regression KW - longitudinal dispersion coefficient KW - M5 model tree KW - random forest KW - support vector regression KW - rivers Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20200128-40775 UR - https://www.tandfonline.com/doi/full/10.1080/19942060.2020.1712260 VL - 2020 IS - Volume 14, No. 1 SP - 311 EP - 322 PB - Taylor & Francis ER -