Refine
Year of publication
- 2018 (251) (remove)
Document Type
- Article (122)
- Conference Proceeding (77)
- Part of a Book (29)
- Book (12)
- Doctoral Thesis (2)
- Other (2)
- Patent (2)
- Part of Periodical (2)
- Working Paper (2)
- Report (1)
Keywords
- Datenschutz (2)
- Digitale Transformation (2)
- Energy efficiency (2)
- Engineering optimization (2)
- Literaturanalyse (2)
- MINLP (2)
- Pump System (2)
- Serious Game (2)
- Water (2)
- Agility (1)
- Antarctica (1)
- Awareness (1)
- Bahadur efficiency (1)
- Bioethanol (1)
- Biorefinery (1)
- Bladder (1)
- Booster Stations (1)
- Buffering Capacity (1)
- CDG (1)
- Chance Constraint (1)
Institute
- Fachbereich Medizintechnik und Technomathematik (65)
- Fachbereich Elektrotechnik und Informationstechnik (44)
- IfB - Institut für Bioengineering (39)
- INB - Institut für Nano- und Biotechnologien (25)
- Fachbereich Luft- und Raumfahrttechnik (24)
- Fachbereich Maschinenbau und Mechatronik (24)
- Fachbereich Energietechnik (22)
- Fachbereich Wirtschaftswissenschaften (21)
- Fachbereich Chemie und Biotechnologie (18)
- Fachbereich Bauingenieurwesen (16)
- Fachbereich Architektur (7)
- ECSM European Center for Sustainable Mobility (6)
- Solar-Institut Jülich (5)
- Fachbereich Gestaltung (4)
- Institut fuer Angewandte Polymerchemie (3)
- MASKOR Institut für Mobile Autonome Systeme und Kognitive Robotik (2)
- Nowum-Energy (2)
- ZHQ - Bereich Hochschuldidaktik und Evaluation (2)
- FH Aachen (1)
Magnetic detection structure for Lab-on-Chip applications based on the frequency mixing technique
(2018)
A magnetic frequency mixing technique with a set of miniaturized planar coils was investigated for use with a completely integrated Lab-on-Chip (LoC) pathogen sensing system. The system allows the detection and quantification of superparamagnetic beads. Additionally, in terms of magnetic nanoparticle characterization ability, the system can be used for immunoassays using the beads as markers. Analytical calculations and simulations for both excitation and pick-up coils are presented; the goal was to investigate the miniaturization of simple and cost-effective planar spiral coils. Following these calculations, a Printed Circuit Board (PCB) prototype was designed, manufactured, and tested for limit of detection, linear response, and validation of theoretical concepts. Using the magnetic frequency mixing technique, a limit of detection of 15 µg/mL of 20 nm core-sized nanoparticles was achieved without any shielding.
Im Rahmen des europäischen Verbundprojekts INSYSME wurden von den deutschen Partnern die Systeme IMES und INODIS zur Verbesserung des seismischen Verhaltens von ausgefachten Stahlbetonrahmen entwickelt. Ziel beider Systeme ist es, Stahlbetonrahmen und Ausfachung zu entkoppeln, anstatt die Tragfähigkeit durch aufwendige und kostspielige zusätzliche Bewehrungseinlagen zu erhöhen. Erste Ergebnisse des Systems IMES für Belastungen in und senkrecht zu der Wandebene werden vorgestellt.
Im Rahmen des europäischen Verbundprojekts INSYSME wurden von den deutschen Partnern die Systeme IMES und INODIS zur Verbesserung des seismischen Verhaltens von ausgefachten Stahlbetonrahmen entwickelt. Ziel beider Systeme ist es, Stahlbetonrahmen und Ausfachung zu entkoppeln, anstatt die Tragfähigkeit durch aufwendige und kostspielige zusätzliche Bewehrungseinlagen zu erhöhen. Erste Ergebnisse des Systems IMES für Belastungen in und senkrecht zu der Wandebene werden vorgestellt.
A nonparametric goodness-of-fit test for random variables with values in a separable Hilbert space is investigated. To verify the null hypothesis that the data come from a specific distribution, an integral type test based on a Cramér-von-Mises statistic is suggested. The convergence in distribution of the test statistic under the null hypothesis is proved and the test's consistency is concluded. Moreover, properties under local alternatives are discussed. Applications are given for data of huge but finite dimension and for functional data in infinite dimensional spaces. A general approach enables the treatment of incomplete data. In simulation studies the test competes with alternative proposals.
The paper deals with the asymptotic behaviour of estimators, statistical tests and confidence intervals for L²-distances to uniformity based on the empirical distribution function, the integrated empirical distribution function and the integrated empirical survival function. Approximations of power functions, confidence intervals for the L²-distances and statistical neighbourhood-of-uniformity validation tests are obtained as main applications. The finite sample behaviour of the procedures is illustrated by a simulation study.
The efficiency concepts of Bahadur and Pitman are used to compare the Wilcoxon tests in paired and independent survey samples. A comparison through the length of corresponding confidence intervals is also done. Simple conditions characterizing the dominance of a procedure are derived. Statistical tests for checking these conditions are suggested and discussed.
Because of customer churn, strong competition, and operational inefficiencies, the telecommunications operator ME Telco (fictitious name due to confidentiality) launched a strategic transformation program that included a Business Process Management (BPM) project. Major problems were silo-oriented process management and missing cross-functional transparency. Process improvements were not consistently planned and aligned with corporate targets. Measurable inefficiencies were observed on an operational level, e.g., high lead times and reassignment rates of the incident management process.
Prozessorientierte Messung der Customer Experience am Beispiel der Telekommunikationsindustrie
(2018)
Hohe Wettbewerbsintensität und gestiegene Kundenanforderungen erfordern bei Telekommunikationsunternehmen eine aktive Gestaltung der Customer Experience (CX). Ein wichtiger Aspekt dabei ist die CX-Messung. Traditionelle Zufriedenheitsmessungen sind oft nicht ausreichend, um die Kundenerfahrung in komplexen Prozessen vollständig zu erfassen. Daher wird in diesem Kapitel eine prozessübergreifende Referenzlösung zur CX-Messung am Beispiel der Telekommunikationsindustrie vorgeschlagen. Ausgangspunkt ist ein industriespezifisches Prozessmodell, das sich an dem Referenzmodell eTOM orientiert. Dieses wird um Messpunkte erweitert, die Schwachstellen in Bezug auf die CX identifizieren. Für die erkannten Schwachstellen werden über eine Referenzmatrix mögliche Auslöser abgeleitet und anhand von typischen Geschäftsfallmengen bewertet. Somit ist eine direkte Zuordnung und Erfolgsmessung konkreter Maßnahmen zur Behebung der Schwachstellen möglich. Die so entwickelte Referenzlösung wurde im Projekt K1 bei der Deutschen Telekom erfolgreich umgesetzt. Details zur Umsetzung werden als Fallstudien dargestellt.
Nutzen und Rahmenbedingungen 5 informationsgetriebener Geschäftsmodelle des Internets der Dinge
(2018)
Im Kontext der zunehmenden Digitalisierung wird das Internet der Dinge (englisch: Internet of Things, IoT) als ein technologischer Treiber angesehen, durch den komplett neue Geschäftsmodelle im Zusammenspiel unterschiedlicher Akteure entstehen können. Identifizierte Schlüsselakteure sind unter anderem traditionelle Industrieunternehmen, Kommunen und Telekommunikationsunternehmen. Letztere sorgen mit der Bereitstellung von Konnektivität dafür, dass kleine Geräte mit winzigen Batterien nahezu überall und direkt an das Internet angebunden werden können. Es sind schon viele IoT-Anwendungsfälle auf dem Markt, die eine Vereinfachung für Endkunden darstellen, wie beispielsweise Philips Hue Tap. Neben Geschäftsmodellen basierend auf Konnektivität besteht ein großes Potenzial für informationsgetriebene Geschäftsmodelle, die bestehende Geschäftsmodelle unterstützen sowie weiterentwickeln können. Ein Beispiel dafür ist der IoT-Anwendungsfall Park and Joy der Deutschen Telekom AG, bei dem Parkplätze mithilfe von Sensoren vernetzt und Autofahrer in Echtzeit über verfügbare Parkplätze informiert werden. Informationsgetriebene Geschäftsmodelle können auf Daten aufsetzen, die in IoT-Anwendungsfällen erzeugt werden. Zum Beispiel kann ein Telekommunikationsunternehmen Mehrwert schöpfen, indem es aus Daten entscheidungsrelevantere Informationen – sogenannte Insights – ableitet, die zur Steigerung der Entscheidungsagilität genutzt werden. Außerdem können Insights monetarisiert werden. Die Monetarisierung von Insights kann nur nachhaltig stattfinden, wenn sorgfältig gehandelt wird und Rahmenbedingungen berücksichtigt werden. In diesem Kapitel wird das Konzept informationsgetriebener Geschäftsmodelle erläutert und anhand des konkreten Anwendungsfalls Park and Joy verdeutlicht. Darüber hinaus werden Nutzen, Risiken und Rahmenbedingungen diskutiert.
Im Rahmen der digitalen Transformation werden innovative Technologiekonzepte, wie z. B. das Internet der Dinge und Cloud Computing als Treiber für weitreichende Veränderungen von Organisationen und Geschäftsmodellen angesehen. In diesem Kontext ist Robotic Process Automation (RPA) ein neuartiger Ansatz zur Prozessautomatisierung, bei dem manuelle Tätigkeiten durch sogenannte Softwareroboter erlernt und automatisiert ausgeführt werden. Dabei emulieren Softwareroboter die Eingaben auf der bestehenden Präsentationsschicht, so dass keine Änderungen an vorhandenen Anwendungssystemen notwendig sind. Die innovative Idee ist die Transformation der bestehenden Prozessausführung von manuell zu digital, was RPA von traditionellen Ansätzen des Business Process Managements (BPM) unterscheidet, bei denen z. B. prozessgetriebene
Anpassungen auf Ebene der Geschäftslogik notwendig sind. Am Markt werden bereits unterschiedliche RPA-Lösungen als Softwareprodukte angeboten. Gerade bei operativen Prozessen mit sich wiederholenden Verarbeitungsschritten in unterschiedlichen Anwendungssystemen sind gute Ergebnisse durch RPA dokumentiert, wie z. B. die Automatisierung von 35 % der Backoffice-Prozesse bei Telefonica. Durch den vergleichsweise niedrigen Implementierungsaufwand verbunden mit einem hohen Automatisierungspotenzial ist in der Praxis (z. B. Banken, Telekommunikation, Energieversorgung) ein hohes Interesse an RPA vorhanden. Der Beitrag diskutiert RPA als innovativen Ansatz zur
Prozessdigitalisierung und gibt konkrete Handlungsempfehlungen für die Praxis. Dazu wird zwischen modellgetriebenen und selbstlernenden Ansätzen unterschieden. Anhand von generellen Architekturen von RPA-Systemen werden Anwendungsszenarien sowie deren Automatisierungspotenziale, aber auch Einschränkungen, diskutiert. Es folgt ein strukturierter Marktüberblick ausgewählter RPA-Produkte. Anhand von drei konkreten Anwendungsbeispielen wird die Nutzung von RPA in der Praxis verdeutlicht.
Das anhaltende Wachstum wissenschaftlicher Veröffentlichungen wirft die Fragestellung auf, wie Literaturana-lysen im Rahmen von Forschungsprozessen digitalisiert und somit produktiver realisiert werden können. Insbesondere in informationstechnischen Fachgebieten ist die Forschungspraxis durch ein rasant wachsendes Publikationsaufkommen gekennzeichnet. Infolgedessen bietet sich der Einsatz von Methoden der Textanalyse (Text Analytics) an, die Textdaten automatisch vorbereiten und verarbeiten können. Erkenntnisse entstehen dabei aus Analysen von Wortarten und Subgruppen, Korrelations- sowie Zeitreihenanalysen. Dieser Beitrag stellt die Konzeption und Realisierung eines Prototypen vor, mit dem Anwender bibliographische Daten aus der etablierten Literaturdatenbank EBSCO Discovery Service mithilfe textanalytischer Methoden erschließen können. Der Prototyp basiert auf dem Analysesystem IBM Watson Explorer, das Hochschulen lizenzkostenfrei zur Verfügung steht. Potenzielle Adressaten des Prototypen sind Forschungseinrichtungen, Beratungsunternehmen sowie Entscheidungsträger in Politik und Unternehmenspraxis.
Angesichts des anhaltenden Wachstums wissenschaftlicher Veröffentlichungen werden Instrumente benötigt, um Literaturanalysen durch Digitalisierung produktiver zu gestalten. Dieser Beitrag stellt einen Ansatz vor, der bibliographische Daten aus der Literaturdatenbank EBSCO Discovery Service mithilfe von Text-Analytics-Methoden erschließt. Die Lösung basiert auf dem Textanalysesystem IBM Watson Explorer und eignet sich für explorative Literaturanalysen, um beispielsweise den Status quo emergierender Technologiefelder in der Literatur zu reflektieren. Die generierten Ergebnisse sind in den Kontext der zunehmenden Werkzeugunterstützung des Literaturrechercheprozesses einzuordnen und können für intra- sowie interinstitutionelle Wissenstransferprozesse in Forschungs- und Beratungskontexten genutzt werden.
The continuing growth of scientific publications raises the question how research processes can be digitalized and thus realized more productively. Especially in information technology fields, research practice is characterized by a rapidly growing volume of publications. For the search process various information systems exist. However, the analysis of the published content is still a highly manual task. Therefore, we propose a text analytics system that allows a fully digitalized analysis of literature sources. We have realized a prototype by using EBSCO Discovery Service in combination with IBM Watson Explorer and demonstrated the results in real-life research projects. Potential addressees are research institutions, consulting firms, and decision-makers in politics and business practice.
As an interdisciplinary research network, the Cluster of Excellence “Integrative Production Technology for High-Wage Countries” (CoE) comprises of around 150 researchers. Their scientific background ranges from mechanical engineering and computer science to social sciences such as sociology and psychology. In addition to content- and methodbased challenges, the CoE’s employees are faced with heterogenic organizational cultures, different hierarchical levels, an imbalanced gender distribution, and a high employee fluctuation. The sub-project Scientific Cooperation Engineering 1 (CSP1) addresses the challenge of interdisciplinary cooperation and organizational learning and aims at fostering interdisciplinarity and its synergies as a source of innovation. Therefore, the project examines means of reaching an organizational development, ranging from temporal structures to a sustainable network in production technology. To achieve this aim, a broad range of means has been developed during the last twelve years: In addition to physical measures such as regular network events and trainings, virtual measures such as the Terminology App were focused. The app is an algorithmic analysis method for uncovering latent topic structures of publications of the CoE to highlight thematic intersections and synergy potentials. The detection and promotion of has been a vital and long known element in knowledge management. Furthermore, CSP1 focusses on project management and thus developed evaluation tools to measure and control the success of interdisciplinary cooperation. In addition to the cooperation fostering measures, CSP1 conducted studies about interdisciplinarity and diversity and their relationship with innovation. The scientific background of these means and the research results of CSP1 are outlined in this paper to offer approaches for successful interdisciplinary cooperation management.
Die Geschichte des Designs ist gesäumt von Auseinandersetzungen. Debattiert wird unter Berufsgenossen, in Interessensverbänden, zwischen Wettbewerbern und nicht zuletzt an Hochschulen; als Foren dienen zum Beispiel Zeitungen, Konferenzen oder Gerichtssäle. Doch welche Gründe gibt es für Streit über Design? Die Kontroversen beschränken sich keineswegs auf die Ästhetik von Artefakten. Auch haben wir es trotz der Vielfalt an Streitfällen nicht mit einem unüberschaubaren Feld von zusammenhanglosen Einzelereignissen zu tun. Wie das vorliegende Buch anhand historischer Kontroversen zeigt, lassen sich im Bereich der Gestaltung Streitkategorien identifizieren. Die Diskursanalyse verrät, dass sich die Konfliktursachen im Verlauf der Designhistorie kaum verändern. So haben die angeführten Dispute erstaunliche Ähnlichkeit mit aktuellen Debatten im Fach. Sie sind Lehrstücke und können dazu anregen, eine Streitkultur im Design zu etablieren, die sich davon distanziert, den Meinungsgegner in ein politisches Lager zu ›verräumen‹.
Physical interaction with small solar system bodies (SSSB) is key for in-situ resource utilization (ISRU). The design of mining missions requires good understanding of SSSB properties, including composition, surface and interior structure, and thermal environment. But as the saying goes "If you've seen one asteroid, you've seen one Asteroid": Although some patterns may begin to appear, a stable and reliable scheme of SSSB classification still has to be evolved. Identified commonalities would enable generic ISRU technology and spacecraft design approaches with a high degree of re-use. Strategic approaches require much broader in-depth characterization of the SSSB populations of interest to the ISRU community. The DLR-ESTEC GOSSAMER Roadmap Science Working Groups identified target-flexible Multiple Near-Earth asteroid (NEA) Rendezvous (MNR) as one of the missions only feasible with solar sail propulsion, showed the ability to access any inclination and a wide range of heliocentric distances as well as continuous operation close to Earth's orbit where low delta-v objects reside.
The search for life on Mars and in the Solar System - strategies, logistics and infrastructures
(2018)
The question "Are we alone in the Universe?" is perhaps the most fundamental one that affects mankind. How can we address the search for life in our Solar System? Mars, Enceladus and Europa are the focus of the search for life outside the terrestrial biosphere. While it is more likely to find remnants of life (fossils of extinct life) on Mars because of its past short time window of the surface habitability, it is probably more likely to find traces of extant life on the icy moons and ocean worlds of Jupiter and Saturn. Nevertheless, even on Mars there could still be a chance to find extant life in niches near to the surface or in just discovered subglacial lakes beneath the South Pole ice cap. Here, the different approaches for the detection of traces of life in the form of biosignatures including pre-biotic molecules will be presented. We will outline the required infrastructure for this enterprise and give examples of future mission concepts to investigate the presence of life on other planets and moons. Finally, we will provide suggestions on methods, techniques, operations and strategies for preparation and realization of future life detection missions.
Physical interaction with small solar system bodies (SSSB) is the next step in planetary science, planetary in-situ resource utilization (ISRU), and planetary defense (PD). It requires a broader understanding of the surface properties of the target objects, with particular interest focused on those near Earth. Knowledge of composition, multi-scale surface structure, thermal response, and interior structure is required to design, validate and operate missions addressing these three fields. The current level of understanding is occasionally simplified into the phrase, ”If you’ve seen one asteroid, you’ve seen one asteroid”, meaning that the in-situ characterization of SSSBs has yet to cross the threshold towards a robust and stable scheme of classification. This would enable generic features in spacecraft design, particularly for ISRU and science missions. Currently, it is necessary to characterize any potential target object sufficiently by a dedicated pre-cursor mission to design the mission which then interacts with the object in a complex fashion. To open up strategic approaches, much broader in-depth characterization of potential target objects would be highly desirable. In SSSB science missions, MASCOT-like nano-landers and instrument carriers which integrate at the instrument level to their mothership have met interest. By its size, MASCOT is compatible with small interplanetary missions. The DLR-ESTEC Gossamer Roadmap Science Working Groups‘ studies identified Multiple Near-Earth asteroid (NEA) Rendezvous (MNR) as one of the space science missions only feasible with solar sail propulsion. The Solar Polar Orbiter (SPO) study showed the ability to access any inclination, theDisplaced-L1 (DL1) mission operates close to Earth, where objects of interest to PD and for ISRU reside. Other studies outline the unique capability of solar sails to provide access to all SSSB, at least within the orbit of Jupiter, and significant progress has been made to explore the performance envelope of near-term solar sails for MNR. However, it is difficult for
sailcraft to interact physically with a SSSB. We expand and extend the philosophy of the recently qualified DLR Gossamer solar sail deployment technology using efficient multiple sub-spacecraft integration to also include landers for one-way in-situ investigations and sample-return missions by synergetic integration and operation of sail and lander. The MASCOT design concept and its characteristic features have created an ideal counterpart for thisand has already been adapted to the needs of the AIM spacecraft, former part of the NASA-ESA AIDA missionDesigning the 69th International Astronautical Congress (IAC), Bremen, Germany, 1-5 October 2018. IAC-18-F1.2.3 Page 2 of 17 combined spacecraft for piggy-back launch accommodation enables low-cost massively parallel access to the NEA population.
This paper introduces a Competence Developing Game (CDG) for the purpose of a cybersecurity awareness training for businesses. The target audience will be discussed in detail to understand their requirements. It will be explained why and how a mix of business simulation and serious game meets these stakeholder requirements. It will be shown that a tablet and touchscreen based approach is the most suitable solution. In addition, an empirical study will be briefly presented. The study was carried out to examine how an interaction system for a 3D-tablet based CDG has to be designed, to be manageable for non-game experienced employees. Furthermore, it will be explained which serious content is necessary for a Cybersecurity awareness training CDG and how this content is wrapped in the game
During the development of a Competence Developing Game’s (CDG) story it is indispensable to understand the target audience. Thereby, CDGs stories represent more than just the plot. The Story is about the
Setting, the Characters and the Plot. As a toolkit to support the
development of such a story, this paper introduces the UserFocused Storybuilding (short UFoS) Framework for CDGs. The Framework and its utilization will be explained, followed by a description of its development and derivation, including an empirical study. In addition, to simplify the Framework use regarding the CDG’s target audience, a new concept of Nine Psychographic Player Types will be explained. This concept of Player Types provides an approach to handle the differences in between players during the UFoS Framework use. Thereby,
this article presents a unique approach to the development of
target group-differentiated CDGs stories.
Nach einem intensiven politischen Diskurs wurde im vergangenen Jahr die Datenschutz-Grundverordnung (DSGVO) verabschiedet. Die DSGVO ersetzt zum 25.5.2018 die bislang geltende, aus dem Jahre 1995 stammende Datenschutz-Richtlinie 95/46/EG. Die Novellierung des Datenschutzrechts bringt zahlreiche neue Anforderungen mit sich. Unternehmen sind daher gezwungen, sich auf die Änderungen einzustellen, ihre datenschutzrelevanten Prozesse im Hinblick auf die neuen Anforderungen zu überprüfen und bis zum Mai 2018 an der DSGVO auszurichten. Der Beitrag gibt einen kurzen Überblick über die zentralen Aspekte der Datenschutzreform und die damit einhergehenden Herausforderungen für Unternehmen.
Datenschutz und der 25.5.2018, wie ein Damoklesschwert scheinen beide Begriffe zurzeit im Raum zu stehe. Jeder weiß oder sollte zumindest um das Inkrafttreten der europäischen DSGVO am 25.5.2018 wissen. Viel wurde über wesentliche Neuerungen im Datenschutzrecht berichtet. Nicht zuletzt über gesteigerte organisatorische Anforderungen, Dokumentationspflichten und drohende Bußgelder. Doch was bedeuten diese Neuerungen ganz konkret für die Praxis des Steuerberaters? Anders als man vermuten könnte, werden die datenschutzrechtlichen Neuerungen nicht nur im Bereich der Kanzleiorganisation relevant. Auch im Steuerverwaltungsverfahren sieht sich der Steuerberater datenschutzrechtlichen Fragestellungen gegenüber, bspw. dann, wenn die Finanzbehörden bei der Verarbeitung der personenbezogenen Daten des Mandanten gegen die DSGVO verstoßen. Gleiches gilt in Bereichen des Beschäftigtendatenschutzes. Sowohl der Kanzleiinhaber selbst, als auch seine Arbeitgeber-Mandanten haben die Vorschriften des Beschäftigtendatenschutzes einzuhalten. Der Steuerberater benötigt datenschutzrechtliches Know How, welches unmittelbar seine tägliche Praxis betrifft. Andernfalls besteht das Risiko, dass dieser mit mehr Fragen, als Antworten zurück bleibt.
Cloud Computing wirft in zahlreichen Rechtsbereichen neuartige juristische Fragestellungen auf. Ziel der Darstellung der rechtlichen Rahmenbedingungen ist, die das Identitätsmanagement in der Cloud betreffenden Rechtsgrundlagen aus den unterschiedlichen Rechtsgebieten vorzustellen und einzuordnen, bevor im Rahmen des sechsten Kapitels die Darstellung der hieraus resultierenden Verpflichtungen in ihrer konkreten Form erfolgt.
Das Kopplungsverbot fristete – obwohl in rechtswissenschaftlicher Literatur seit jeher diskutiert – unter der Geltung des BDSG ein Schattendasein. Mit der Datenschutz-Grundverordnung (DS-GVO) ist eine Änderung absehbar: Der neue Art. EWG_DSGVO Artikel 7 Abs. EWG_DSGVO Artikel 7 Absatz 4 DS-GVO stellt klar, dass die Leistungserbringung nicht von der Einwilligungserteilung abhängig gemacht werden darf. Doch dieses scheinbare Novum des Datenschutzrechts wirft zahlreiche Fragen auf. Während vor allem Vertreter der unternehmerischen Praxis die Anwendung des Kopplungsverbots in zahlreichen Konstellationen ablehnen, beschwören dessen Apologeten das Ende sämtlicher „datenfinanzierten“ Dienste herauf. Der vorliegende Beitrag gibt Einblick in die Regelungstiefe einer Norm, die das Web 2.0 revolutionieren könnte, und schlägt eine Lösung vor, die dem Schutz der Privatsphäre des Betroffenen und den wirtschaftlichen Interessen von Diensteanbietern gleichermaßen gerecht wird.
Die Datenschutz-Grundverordnung (DS-GVO) regelt in ihrem Art. 3 das räumlich anwendbare Datenschutzrecht und zielt dabei gerade auch auf Angebote nichteuropäischer Diensteanbieter ab. Die bisherige Diskussion konzentriert sich bislang in erster Linie darauf, das eingeführte Marktortprinzip zu thematisieren; das weitgehend unangetastete
Niederlassungsprinzip und vor allem die Probleme, die sich durch dessen unveränderte Beibehaltung ergeben, werden dagegen nicht erörtert. Der folgende Beitrag versucht sich an einer systematischen Analyse eines teils kontrovers, teils kaum diskutierten Themas.
Die Rechtsfigur der gemeinsamen Verantwortlichkeit beschäftigt die datenschutzrechtliche Literatur seit Langem. Die Bestimmung der Verantwortlichkeit bei arbeitsteiligen Verarbeitungsverfahren, welche vor allem bei heutigen Plattformdiensten üblich sind, ist komplex: Stets sind mehrere Akteure beteiligt und in der Regel werden durch die Handlung eines Beteiligten mehrere Verarbeitungsschritte ausgelöst. Nun hat sich der EuGH in einem in mehrfacher Hinsicht bemerkenswerten Urteil geäußert.
Das neue kirchliche Datenschutzrecht – Herausforderungen für Unternehmen der Privatwirtschaft
(2018)
Textsammlung mit allen für den Datenschutz in Kirchen maßgeblichen Regelwerken: DSGVO, KDG, KDR-OG und DSG-EKD sowie begleitende Verordnungen KDO-DVO und ITSVO-EKD. Die vorliegende Textsammlung enthält neben dem zentralen Regelwerk, der Datenschutz-Grundverordnung (DSGVO) in ihrer letzten korrigierten Fassung vom 19. April 2018, die Normen des kirchlichen Rechts, die aufgrund der DSGVO neu erlassen wurden. Auf Seiten der katholischen Kirche sind dies das Gesetz über den Kirchlichen Datenschutz (KDG) und die Kirchliche Datenschutzregelung der Ordensgemeinschaft päpstlichen Rechts (KDR-OG); zudem findet die Verordnung zur Durchführung der Anordnung über den kirchlichen Datenschutz (KDO-DVO) weiterhin entsprechende Anwendung. Die evangelische Kirche novellierte das Kirchengesetz über den Datenschutz der Evangelischen Kirche in Deutschland (DSG-EKD) und hielt an der Verordnung zur Sicherheit der Informationstechnik (ITSVO-EKD) fest. Ergänzt wird das Werk durch Verweise auf maßgebliche Veröffentlichungen der Artikel-29-Datenschutzgruppe und der weltlichen und kirchlichen Datenschutzaufsichtsbehörden. Damit richtet sich das vorliegende Werk vor allem an kirchliche Gemeinden sowie Unternehmen in kirchlicher Trägerschaft und ihre Datenschutzbeauftragten wie gleichermaßen an private Unternehmen, Kanzleien und Berater mit kirchlicher Kundschaft bzw. Mandantschaft.
Resilience as a concept has found its way into different disciplines to describe the ability of an individual or system to withstand and adapt to changes in its environment. In this paper, we provide an overview of the concept in different communities and extend it to the area of mechanical engineering. Furthermore, we present metrics to measure resilience in technical systems and illustrate them by applying them to load-carrying structures. By giving application examples from the Collaborative Research Centre (CRC) 805, we show how the concept of resilience can be used to control uncertainty during different stages of product life.
The UN sets the goal to ensure access to water and sanitation for all people by 2030. To address this goal, we present a multidisciplinary approach for designing water supply networks for slums in large cities by applying mathematical optimization. The problem is modeled as a mixed-integer linear problem (MILP) aiming to find a network describing the optimal supply infrastructure. To illustrate the approach, we apply it on a small slum cluster in Dhaka, Bangladesh.
The energy-efficiency of technical systems can be improved by a systematic design approach. Technical Operations Research (TOR) employs methods known from Operations Research to find a global optimal layout and operation strategy of technical systems. We show the practical usage of this approach by the systematic design of a decentralized water supply system for skyscrapers. All possible network options and operation strategies are modeled by a Mixed-Integer Nonlinear Program. We present the optimal system found by our approach and highlight the energy savings compared to a conventional system design.
The overall energy efficiency of ventilation systems can be improved by considering not only single components, but by considering as well the interplay between every part of the system. With the help of the method "TOR" ("Technical Operations Research"), which was developed at the Chair of Fluid Systems at TU Darmstadt, it is possible to improve the energy efficiency of the whole system by considering all possible design choices programmatically. We show the ability of this systematic design approach with a ventilation system for buildings as a use case example.
Based on a Mixed-Integer Nonlinear Program (MINLP) we model the ventilation system. We use binary variables to model the selection of different pipe diameters. Multiple fans are model with the help of scaling laws. The whole system is represented by a graph, where the edges represent the pipes and fans and the nodes represents the source of air for cooling and the sinks, that have to be cooled. At the beginning, the human designer chooses a construction kit of different suitable fans and pipes of different diameters and different load cases. These boundary conditions define a variety of different possible system topologies. It is not possible to consider all topologies by hand. With the help of state of the art solvers, on the other side, it is possible to solve this MINLP.
Next to this, we also consider the effects of malfunctions in different components. Therefore, we show a first approach to measure the resilience of the shown example use case. Further, we compare the conventional approach with designs that are more resilient. These more resilient designs are derived by extending the before mentioned model with further constraints, that consider explicitly the resilience of the overall system. We show that it is possible to design resilient systems with this method already in the early design stage and compare the energy efficiency and resilience of these different system designs.
Highly competitive markets paired with tremendous production volumes demand particularly cost efficient products. The usage of common parts and modules across product families can potentially reduce production costs. Yet, increasing commonality typically results in overdesign of individual products. Multi domain virtual prototyping enables designers to evaluate costs and technical feasibility of different single product designs at reasonable computational effort in early design phases. However, savings by platform commonality are hard to quantify and require detailed knowledge of e.g. the production process and the supply chain. Therefore, we present and evaluate a multi-objective metamodel-based optimization algorithm which enables designers to explore the trade-off between high commonality and cost optimal design of single products.
To increase pressure to supply all floors of high buildings with water, booster stations, normally consisting of several parallel pumps in the basement, are used. In this work, we demonstrate the potential of a decentralized pump topology regarding energy savings in water supply systems of skyscrapers. We present an approach, based on Mixed-Integer Nonlinear Programming, that allows to choose an optimal network topology and optimal pumps from a predefined construction kit comprising different pump types. Using domain-specific scaling laws and Latin Hypercube Sampling, we generate different input sets of pump types and compare their impact on the efficiency and cost of the total system design. As a realistic application example, we consider a hotel building with 325 rooms, 12 floors and up to four pressure zones.
Given industrial applications, the costs for the operation and maintenance of a pump system typically far exceed its purchase price. For finding an optimal pump configuration which minimizes not only investment, but life-cycle costs, methods like Technical Operations Research which is based on Mixed-Integer Programming can be applied. However, during the planning phase, the designer is often faced with uncertain input data, e.g. future load demands can only be estimated. In this work, we deal with this uncertainty by developing a chance-constrained two-stage (CCTS) stochastic program. The design and operation of a booster station working under uncertain load demand are optimized to minimize total cost including purchase price, operation cost incurred by energy consumption and penalty cost resulting from water shortage. We find optimized system layouts using a sample average approximation (SAA) algorithm, and analyze the results for different risk levels of water shortage. By adjusting the risk level, the costs and performance range of the system can be balanced, and thus the
system’s resilience can be engineered
On obligations in the development process of resilient systems with algorithmic design methods
(2018)
Advanced computational methods are needed both for the design of large systems and to compute high accuracy solutions. Such methods are efficient in computation, but the validation of results is very complex, and highly skilled auditors are needed to verify them. We investigate legal questions concerning obligations in the development phase, especially for technical systems developed using advanced methods. In particular, we consider methods of resilient and robust optimization. With these techniques, high performance solutions can be found, despite a high variety of input parameters. However, given the novelty of these methods, it is uncertain whether legal obligations are being met. The aim of this paper is to discuss if and how the choice of a specific computational method affects the developer’s product liability. The review of legal obligations in this paper is based on German law and focuses on the requirements that must be met during the design and development process.
Nahezu 100.000 denkbare Strukturen kann ein Getriebe bei gleicher Funktion aufweisen - je nach Ganganzahl und gefordertem Freiheitsgrad. Mit dem traditionellen Ansatz bei der Entwicklung, einzelne vielversprechende Systemkonfigurationen manuell zu identifizieren und zu vergleichen, können leicht innovative und vor allem kostenminimale Lösungen übersehen werden. Im Rahmen eines Forschungsprojekts hat die TU Darmstadt spezielle Optimierungsmethoden angewendet, um auch bei großen Lösungsräumen zielsicher ein für die individuellen Zielstellungen optimales Layout zu finden.
Ensuring access to water and sanitation for all is Goal No. 6 of the 17 UN Sustainability Development Goals to transform our world. As one step towards this goal, we present an approach that leverages remote sensing data to plan optimal water supply networks for informal urban settlements. The concept focuses on slums within large urban areas, which are often characterized by a lack of an appropriate water supply. We apply methods of mathematical optimization aiming to find a network describing the optimal supply infrastructure. Hereby, we choose between different decentral and central approaches combining supply by motorized vehicles with supply by pipe systems. For the purposes of illustration, we apply the approach to two small slum clusters in Dhaka and Dar es Salaam. We show our optimization results, which represent the lowest cost water supply systems possible. Additionally, we compare the optimal solutions of the two clusters (also for varying input parameters, such as population densities and slum size development over time) and describe how the result of the optimization depends on the entered remote sensing data.
Around 60% of the paper worldwide is made from recovered paper. Especially adhesive contaminants, so called stickies, reduce paper quality. To remove stickies but at the same time keep as many valuable fibers as possible, multi-stage screening systems with several interconnected pressure screens are used. When planning such systems, suitable screens have to be selected and their interconnection as well as operational parameters have to be defined considering multiple conflicting objectives. In this contribution, we present a Mixed-Integer Nonlinear Program to optimize system layout, component selection and operation to find a suitable trade-off between output quality and yield.
Algorithmic design and resilience assessment of energy efficient high-rise water supply systems
(2018)
High-rise water supply systems provide water flow and suitable pressure in all levels of tall buildings. To design such state-of-the-art systems, the consideration of energy efficiency and the anticipation of component failures are mandatory. In this paper, we use Mixed-Integer Nonlinear Programming to compute an optimal placement of pipes and pumps, as well as an optimal control strategy.Moreover, we consider the resilience of the system to pump failures. A resilient system is able to fulfill a predefined minimum functionality even though components fail or are restricted in their normal usage. We present models to measure and optimize the resilience. To demonstrate our approach, we design and analyze an optimal resilient decentralized water supply system inspired by a real-life hotel building.