Refine
Year of publication
- 2018 (262) (remove)
Institute
- Fachbereich Medizintechnik und Technomathematik (68)
- Fachbereich Elektrotechnik und Informationstechnik (44)
- IfB - Institut für Bioengineering (41)
- INB - Institut für Nano- und Biotechnologien (25)
- Fachbereich Luft- und Raumfahrttechnik (24)
- Fachbereich Maschinenbau und Mechatronik (24)
- Fachbereich Chemie und Biotechnologie (22)
- Fachbereich Energietechnik (22)
- Fachbereich Wirtschaftswissenschaften (21)
- Fachbereich Bauingenieurwesen (16)
Document Type
- Article (127)
- Conference Proceeding (78)
- Part of a Book (31)
- Book (12)
- Working Paper (3)
- Conference: Meeting Abstract (2)
- Doctoral Thesis (2)
- Patent (2)
- Part of a Periodical (2)
- Conference Poster (1)
Keywords
- Datenschutz (2)
- Digitale Transformation (2)
- Energy efficiency (2)
- Engineering optimization (2)
- Literaturanalyse (2)
- MINLP (2)
- Pump System (2)
- Serious Game (2)
- Water (2)
- Actors (1)
Ensuring access to water and sanitation for all is Goal No. 6 of the 17 UN Sustainability Development Goals to transform our world. As one step towards this goal, we present an approach that leverages remote sensing data to plan optimal water supply networks for informal urban settlements. The concept focuses on slums within large urban areas, which are often characterized by a lack of an appropriate water supply. We apply methods of mathematical optimization aiming to find a network describing the optimal supply infrastructure. Hereby, we choose between different decentral and central approaches combining supply by motorized vehicles with supply by pipe systems. For the purposes of illustration, we apply the approach to two small slum clusters in Dhaka and Dar es Salaam. We show our optimization results, which represent the lowest cost water supply systems possible. Additionally, we compare the optimal solutions of the two clusters (also for varying input parameters, such as population densities and slum size development over time) and describe how the result of the optimization depends on the entered remote sensing data.
Nahezu 100.000 denkbare Strukturen kann ein Getriebe bei gleicher Funktion aufweisen - je nach Ganganzahl und gefordertem Freiheitsgrad. Mit dem traditionellen Ansatz bei der Entwicklung, einzelne vielversprechende Systemkonfigurationen manuell zu identifizieren und zu vergleichen, können leicht innovative und vor allem kostenminimale Lösungen übersehen werden. Im Rahmen eines Forschungsprojekts hat die TU Darmstadt spezielle Optimierungsmethoden angewendet, um auch bei großen Lösungsräumen zielsicher ein für die individuellen Zielstellungen optimales Layout zu finden.
On obligations in the development process of resilient systems with algorithmic design methods
(2018)
Advanced computational methods are needed both for the design of large systems and to compute high accuracy solutions. Such methods are efficient in computation, but the validation of results is very complex, and highly skilled auditors are needed to verify them. We investigate legal questions concerning obligations in the development phase, especially for technical systems developed using advanced methods. In particular, we consider methods of resilient and robust optimization. With these techniques, high performance solutions can be found, despite a high variety of input parameters. However, given the novelty of these methods, it is uncertain whether legal obligations are being met. The aim of this paper is to discuss if and how the choice of a specific computational method affects the developer’s product liability. The review of legal obligations in this paper is based on German law and focuses on the requirements that must be met during the design and development process.
The continuing growth of scientific publications raises the question how research processes can be digitalized and thus realized more productively. Especially in information technology fields, research practice is characterized by a rapidly growing volume of publications. For the search process various information systems exist. However, the analysis of the published content is still a highly manual task. Therefore, we propose a text analytics system that allows a fully digitalized analysis of literature sources. We have realized a prototype by using EBSCO Discovery Service in combination with IBM Watson Explorer and demonstrated the results in real-life research projects. Potential addressees are research institutions, consulting firms, and decision-makers in politics and business practice.
Das anhaltende Wachstum wissenschaftlicher Veröffentlichungen wirft die Fragestellung auf, wie Literaturana-lysen im Rahmen von Forschungsprozessen digitalisiert und somit produktiver realisiert werden können. Insbesondere in informationstechnischen Fachgebieten ist die Forschungspraxis durch ein rasant wachsendes Publikationsaufkommen gekennzeichnet. Infolgedessen bietet sich der Einsatz von Methoden der Textanalyse (Text Analytics) an, die Textdaten automatisch vorbereiten und verarbeiten können. Erkenntnisse entstehen dabei aus Analysen von Wortarten und Subgruppen, Korrelations- sowie Zeitreihenanalysen. Dieser Beitrag stellt die Konzeption und Realisierung eines Prototypen vor, mit dem Anwender bibliographische Daten aus der etablierten Literaturdatenbank EBSCO Discovery Service mithilfe textanalytischer Methoden erschließen können. Der Prototyp basiert auf dem Analysesystem IBM Watson Explorer, das Hochschulen lizenzkostenfrei zur Verfügung steht. Potenzielle Adressaten des Prototypen sind Forschungseinrichtungen, Beratungsunternehmen sowie Entscheidungsträger in Politik und Unternehmenspraxis.
Angesichts des anhaltenden Wachstums wissenschaftlicher Veröffentlichungen werden Instrumente benötigt, um Literaturanalysen durch Digitalisierung produktiver zu gestalten. Dieser Beitrag stellt einen Ansatz vor, der bibliographische Daten aus der Literaturdatenbank EBSCO Discovery Service mithilfe von Text-Analytics-Methoden erschließt. Die Lösung basiert auf dem Textanalysesystem IBM Watson Explorer und eignet sich für explorative Literaturanalysen, um beispielsweise den Status quo emergierender Technologiefelder in der Literatur zu reflektieren. Die generierten Ergebnisse sind in den Kontext der zunehmenden Werkzeugunterstützung des Literaturrechercheprozesses einzuordnen und können für intra- sowie interinstitutionelle Wissenstransferprozesse in Forschungs- und Beratungskontexten genutzt werden.
Im Rahmen der digitalen Transformation werden innovative Technologiekonzepte, wie z. B. das Internet der Dinge und Cloud Computing als Treiber für weitreichende Veränderungen von Organisationen und Geschäftsmodellen angesehen. In diesem Kontext ist Robotic Process Automation (RPA) ein neuartiger Ansatz zur Prozessautomatisierung, bei dem manuelle Tätigkeiten durch sogenannte Softwareroboter erlernt und automatisiert ausgeführt werden. Dabei emulieren Softwareroboter die Eingaben auf der bestehenden Präsentationsschicht, so dass keine Änderungen an vorhandenen Anwendungssystemen notwendig sind. Die innovative Idee ist die Transformation der bestehenden Prozessausführung von manuell zu digital, was RPA von traditionellen Ansätzen des Business Process Managements (BPM) unterscheidet, bei denen z. B. prozessgetriebene
Anpassungen auf Ebene der Geschäftslogik notwendig sind. Am Markt werden bereits unterschiedliche RPA-Lösungen als Softwareprodukte angeboten. Gerade bei operativen Prozessen mit sich wiederholenden Verarbeitungsschritten in unterschiedlichen Anwendungssystemen sind gute Ergebnisse durch RPA dokumentiert, wie z. B. die Automatisierung von 35 % der Backoffice-Prozesse bei Telefonica. Durch den vergleichsweise niedrigen Implementierungsaufwand verbunden mit einem hohen Automatisierungspotenzial ist in der Praxis (z. B. Banken, Telekommunikation, Energieversorgung) ein hohes Interesse an RPA vorhanden. Der Beitrag diskutiert RPA als innovativen Ansatz zur
Prozessdigitalisierung und gibt konkrete Handlungsempfehlungen für die Praxis. Dazu wird zwischen modellgetriebenen und selbstlernenden Ansätzen unterschieden. Anhand von generellen Architekturen von RPA-Systemen werden Anwendungsszenarien sowie deren Automatisierungspotenziale, aber auch Einschränkungen, diskutiert. Es folgt ein strukturierter Marktüberblick ausgewählter RPA-Produkte. Anhand von drei konkreten Anwendungsbeispielen wird die Nutzung von RPA in der Praxis verdeutlicht.
Nutzen und Rahmenbedingungen 5 informationsgetriebener Geschäftsmodelle des Internets der Dinge
(2018)
Im Kontext der zunehmenden Digitalisierung wird das Internet der Dinge (englisch: Internet of Things, IoT) als ein technologischer Treiber angesehen, durch den komplett neue Geschäftsmodelle im Zusammenspiel unterschiedlicher Akteure entstehen können. Identifizierte Schlüsselakteure sind unter anderem traditionelle Industrieunternehmen, Kommunen und Telekommunikationsunternehmen. Letztere sorgen mit der Bereitstellung von Konnektivität dafür, dass kleine Geräte mit winzigen Batterien nahezu überall und direkt an das Internet angebunden werden können. Es sind schon viele IoT-Anwendungsfälle auf dem Markt, die eine Vereinfachung für Endkunden darstellen, wie beispielsweise Philips Hue Tap. Neben Geschäftsmodellen basierend auf Konnektivität besteht ein großes Potenzial für informationsgetriebene Geschäftsmodelle, die bestehende Geschäftsmodelle unterstützen sowie weiterentwickeln können. Ein Beispiel dafür ist der IoT-Anwendungsfall Park and Joy der Deutschen Telekom AG, bei dem Parkplätze mithilfe von Sensoren vernetzt und Autofahrer in Echtzeit über verfügbare Parkplätze informiert werden. Informationsgetriebene Geschäftsmodelle können auf Daten aufsetzen, die in IoT-Anwendungsfällen erzeugt werden. Zum Beispiel kann ein Telekommunikationsunternehmen Mehrwert schöpfen, indem es aus Daten entscheidungsrelevantere Informationen – sogenannte Insights – ableitet, die zur Steigerung der Entscheidungsagilität genutzt werden. Außerdem können Insights monetarisiert werden. Die Monetarisierung von Insights kann nur nachhaltig stattfinden, wenn sorgfältig gehandelt wird und Rahmenbedingungen berücksichtigt werden. In diesem Kapitel wird das Konzept informationsgetriebener Geschäftsmodelle erläutert und anhand des konkreten Anwendungsfalls Park and Joy verdeutlicht. Darüber hinaus werden Nutzen, Risiken und Rahmenbedingungen diskutiert.
Prozessorientierte Messung der Customer Experience am Beispiel der Telekommunikationsindustrie
(2018)
Hohe Wettbewerbsintensität und gestiegene Kundenanforderungen erfordern bei Telekommunikationsunternehmen eine aktive Gestaltung der Customer Experience (CX). Ein wichtiger Aspekt dabei ist die CX-Messung. Traditionelle Zufriedenheitsmessungen sind oft nicht ausreichend, um die Kundenerfahrung in komplexen Prozessen vollständig zu erfassen. Daher wird in diesem Kapitel eine prozessübergreifende Referenzlösung zur CX-Messung am Beispiel der Telekommunikationsindustrie vorgeschlagen. Ausgangspunkt ist ein industriespezifisches Prozessmodell, das sich an dem Referenzmodell eTOM orientiert. Dieses wird um Messpunkte erweitert, die Schwachstellen in Bezug auf die CX identifizieren. Für die erkannten Schwachstellen werden über eine Referenzmatrix mögliche Auslöser abgeleitet und anhand von typischen Geschäftsfallmengen bewertet. Somit ist eine direkte Zuordnung und Erfolgsmessung konkreter Maßnahmen zur Behebung der Schwachstellen möglich. Die so entwickelte Referenzlösung wurde im Projekt K1 bei der Deutschen Telekom erfolgreich umgesetzt. Details zur Umsetzung werden als Fallstudien dargestellt.
Because of customer churn, strong competition, and operational inefficiencies, the telecommunications operator ME Telco (fictitious name due to confidentiality) launched a strategic transformation program that included a Business Process Management (BPM) project. Major problems were silo-oriented process management and missing cross-functional transparency. Process improvements were not consistently planned and aligned with corporate targets. Measurable inefficiencies were observed on an operational level, e.g., high lead times and reassignment rates of the incident management process.
Malaria infection remains a significant risk for much of the population of tropical and subtropical areas, particularly in developing countries. Therefore, it is of high importance to develop sensitive, accurate and inexpensive malaria diagnosis tests. Here, we present a novel aptamer-based electrochemical biosensor (aptasensor) for malaria detection by impedance spectroscopy, through the specific recognition between a highly discriminatory DNA aptamer and its target Plasmodium falciparum lactate dehydrogenase (PfLDH). Interestingly, due to the isoelectric point (pI) of PfLDH, the aptasensor response showed an adjustable detection range based on the different protein net-charge at variable pH environments. The specific aptamer recognition allows sensitive protein detection with an expanded detection range and a low detection limit, as well as a high specificity for PfLDH compared to analogous proteins. The specific feasibility of the aptasensor is further demonstrated by detection of the target PfLDH in human serum. Furthermore, the aptasensor can be easily regenerated and thus applied for multiple usages. The robustness, sensitivity, and reusability of the presented aptasensor make it a promising candidate for point-of-care diagnostic systems.
The chemical imaging sensor is a semiconductor-based chemical sensor capable of visualizing pH and ion distributions. The spatial resolution depends on the lateral diffusion of photocarriers generated by illumination of the semiconductor substrate. In this study, two types of optical setups, one based on a bundle of optical fibers and the other based on a binocular tube head, were developed to project a hybrid illumination of a modulated light beam and a ring-shaped constant illumination onto the sensor plate. An improved spatial resolution was realized by the ring-shaped constant illumination, which suppressed lateral diffusion of photocarriers by enhanced recombination due to the increased carrier concentration.
Synthetic mimics of natural high-performance structural materials have shown great and partly unforeseen opportunities for the design of multifunctional materials. For nacre-mimetic nanocomposites, it has remained extraordinarily challenging to make ductile materials with high stretchability at high fractions of reinforcements, which is however of crucial importance for flexible barrier materials. Here, highly ductile and tough nacre-mimetic nanocomposites are presented, by implementing weak, but many hydrogen bonds in a ternary nacre-mimetic system consisting of two polymers (poly(vinyl amine) and poly(vinyl alcohol)) and natural nanoclay (montmorillonite) to provide efficient energy dissipation and slippage at high nanoclay content (50 wt%). Tailored interactions enable exceptional combinations of ductility (close to 50% strain) and toughness (up to 27.5 MJ m⁻³). Extensive stress whitening, a clear sign of high internal dynamics at high internal cohesion, can be observed during mechanical deformation, and the materials can be folded like paper into origami planes without fracture. Overall, the new levels of ductility and toughness are unprecedented in highly reinforced bioinspired nanocomposites and are of critical importance to future applications, e.g., as barrier materials needed for encapsulation and as a printing substrate for flexible organic electronics.
False spectra formation in the differential two-channel scheme of the laser Doppler flowmeter
(2018)
Noise in the differential two-channel scheme of a classic laser Doppler flowmetry (LDF) instrument was studied. Formation of false spectral components in the output signal due to beating of electrical signals in the differential amplifier was found out. The improved block-diagram of the flowmeter was developed allowing to reduce the noise.
Monitoring of organic acids (OA) and volatile fatty acids (VFA) is crucial for the control of anaerobic digestion. In case of unstable process conditions, an accumulation of these intermediates occurs. In the present work, two different enzyme-based biosensor arrays are combined and presented for facile electrochemical determination of several process-relevant analytes. Each biosensor utilizes a platinum sensor chip (14 × 14 mm²) with five individual working electrodes. The OA biosensor enables simultaneous measurement of ethanol, formate, d- and l-lactate, based on a bi-enzymatic detection principle. The second VFA biosensor provides an amperometric platform for quantification of acetate and propionate, mediated by oxidation of hydrogen peroxide. The cross-sensitivity of both biosensors toward potential interferents, typically present in fermentation samples, was investigated. The potential for practical application in complex media was successfully demonstrated in spiked sludge samples collected from three different biogas plants. Thereby, the results obtained by both of the biosensors were in good agreement to the applied reference measurements by photometry and gas chromatography, respectively. The proposed hybrid biosensor system was also used for long-term monitoring of a lab-scale biogas reactor (0.01 m³) for a period of 2 months. In combination with typically monitored parameters, such as gas quality, pH and FOS/TAC (volatile organic acids/total anorganic carbonate), the amperometric measurements of OA and VFA concentration could enhance the understanding of ongoing fermentation processes.