Refine
Year of publication
- 2018 (262) (remove)
Institute
- Fachbereich Medizintechnik und Technomathematik (68)
- Fachbereich Elektrotechnik und Informationstechnik (44)
- IfB - Institut für Bioengineering (41)
- INB - Institut für Nano- und Biotechnologien (25)
- Fachbereich Luft- und Raumfahrttechnik (24)
- Fachbereich Maschinenbau und Mechatronik (24)
- Fachbereich Chemie und Biotechnologie (22)
- Fachbereich Energietechnik (22)
- Fachbereich Wirtschaftswissenschaften (21)
- Fachbereich Bauingenieurwesen (16)
Document Type
- Article (127)
- Conference Proceeding (78)
- Part of a Book (31)
- Book (12)
- Working Paper (3)
- Conference: Meeting Abstract (2)
- Doctoral Thesis (2)
- Patent (2)
- Part of a Periodical (2)
- Conference Poster (1)
Keywords
- Datenschutz (2)
- Digitale Transformation (2)
- Energy efficiency (2)
- Engineering optimization (2)
- Literaturanalyse (2)
- MINLP (2)
- Pump System (2)
- Serious Game (2)
- Water (2)
- Actors (1)
Many efforts are made worldwide to establish magnetic fluid hyperthermia (MFH) as a treatment for organ-confined tumors. However, translation to clinical application hardly succeeds as it still lacks of understanding the mechanisms determining MFH cytotoxic effects. Here, we investigate the intracellular MFH efficacy with respect to different parameters and assess the intracellular cytotoxic effects in detail. For this, MiaPaCa-2 human pancreatic tumor cells and L929 murine fibroblasts were loaded with iron-oxide magnetic nanoparticles (MNP) and exposed to MFH for either 30 min or 90 min. The resulting cytotoxic effects were assessed via clonogenic assay. Our results demonstrate that cell damage depends not only on the obvious parameters bulk temperature and duration of treatment, but most importantly on cell type and thermal energy deposited per cell during MFH treatment. Tumor cell death of 95% was achieved by depositing an intracellular total thermal energy with about 50% margin to damage of healthy cells. This is attributed to combined intracellular nanoheating and extracellular bulk heating. Tumor cell damage of up to 86% was observed for MFH treatment without perceptible bulk temperature rise. Effective heating decreased by up to 65% after MNP were internalized inside cells.
Magnetic nanoparticles (MNPs) are used as therapeutic and diagnostic agents for local delivery of heat and image contrast enhancement in diseased tissue. Besides magnetization, the most important parameter that determines their performance for these applications is their magnetic relaxation, which can be affected when MNPs immobilize and agglomerate inside tissues. In this letter, we investigate different MNP agglomeration states for their magnetic relaxation properties under excitation in alternating fields and relate this to their heating efficiency and imaging properties. With focus on magnetic fluid hyperthermia, two different trends in MNP heating efficiency are measured: an increase by up to 23% for agglomerated MNP in suspension and a decrease by up to 28% for mixed states of agglomerated and immobilized MNP, which indicates that immobilization is the dominant effect. The same comparatively moderate effects are obtained for the signal amplitude in magnetic particle spectroscopy.
Kinematics and kinetics of handcycling propulsion at increasing workloads in able-bodied subjects
(2018)
In Paralympic sports, biomechanical optimisation of movements and equipment seems to be promising for improving performance. In handcycling, information about the biomechanics of this sport is mainly provided by case studies. The aim of the current study was (1) to examine changes in handcycling propulsion kinematics and kinetics due to increasing workloads and (2) identify parameters that are associated with peak aerobic performance. Twelve non-disabled male competitive triathletes without handcycling experience voluntarily participated in the study. They performed an initial familiarisation protocol and incremental step test until exhaustion in a recumbent racing handcycle that was attached to an ergometer. During the incremental test, tangential crank kinetics, 3D joint kinematics, blood lactate and ratings of perceived exertion (local and global) were identified. As a performance criterion, the maximal power output during the step test (Pmax) was calculated and correlated with biomechanical parameters. For higher workloads, an increase in crank torque was observed that was even more pronounced in the pull phase than in the push phase. Furthermore, participants showed an increase in shoulder internal rotation and abduction and a decrease in elbow flexion and retroversion. These changes were negatively correlated with performance. At high workloads, it seems that power output is more limited by the transition from pull to push phase than at low workloads. It is suggested that successful athletes demonstrate small alterations of their kinematic profile due to increasing workloads. Future studies should replicate and expand the test spectrum (sprint and continuous loads) as well as use methods like surface electromyography (sEMG) with elite handcyclists.
Impaired cerebral autoregulation and neurovascular coupling (NVC) contribute to delayed cerebral ischemia after subarachnoid hemorrhage (SAH). Retinal vessel analysis (RVA) allows non-invasive assessment of vessel dimension and NVC hereby demonstrating a predictive value in the context of various neurovascular diseases. Using RVA as a translational approach, we aimed to assess the retinal vessels in patients with SAH. RVA was performed prospectively in 24 patients with acute SAH (group A: day 5–14), in 11 patients 3 months after ictus (group B: day 90 ± 35), and in 35 age-matched healthy controls (group C). Data was acquired using a Retinal Vessel Analyzer (Imedos Systems UG, Jena) for examination of retinal vessel dimension and NVC using flicker-light excitation. Diameter of retinal vessels—central retinal arteriolar and venular equivalent—was significantly reduced in the acute phase (p < 0.001) with gradual improvement in group B (p < 0.05). Arterial NVC of group A was significantly impaired with diminished dilatation (p < 0.001) and reduced area under the curve (p < 0.01) when compared to group C. Group B showed persistent prolonged latency of arterial dilation (p < 0.05). Venous NVC was significantly delayed after SAH compared to group C (A p < 0.001; B p < 0.05). To our knowledge, this is the first clinical study to document retinal vasoconstriction and impairment of NVC in patients with SAH. Using non-invasive RVA as a translational approach, characteristic patterns of compromise were detected for the arterial and venous compartment of the neurovascular unit in a time-dependent fashion. Recruitment will continue to facilitate a correlation analysis with clinical course and outcome.
Due to the Renewable Energy Act, in Germany it is planned to increase the amount of renewable energy carriers up to 60%. One of the main problems is the fluctuating supply of wind and solar energy. Here biogas plants provide a solution, because a demand-driven supply is possible. Before running such a plant, it is necessary to simulate and optimize the process. This paper provides a new model of a biogas plant, which is as accurate as the standard ADM1 model. The advantage compared to ADM1 is that it is based on only four parameters compared to 28. Applying this model, an optimization was installed, which allows a demand-driven supply by biogas plants. Finally the results are confirmed by several experiments and measurements with a real test plant.
Digitalisierung bezeichnet die Nutzung großer Datenmengen, die zu einer umfassenden Vernetzung aller Bereiche der Wirtschaft und Gesellschaft führen wird (BMWi, 2015 und ähnlich Köhler/Wollschläger, 2014: 79). Sie umfasst die Erhebung von analogen Informationen („Big Data“ in einem engen Sinne; z.B. O´Leary, 2013), ihre Speicherung in einem digitaltechnischen System (lokale Speicherung oder „Cloud Computing“ durch die Weiterentwickelung des Internets; z.B. Hashem et al., 2015: 101), die Analyse und Interpretation sowie den Transfer in andere Systeme („Internet der Dinge“ bzw. „Internet of Things“; z.B. Ashton, 2009).
In this work, a spore-based biosensor is evaluated to monitor the microbicidal efficacy of sterilization processes applying gaseous hydrogen peroxide (H2O2). The sensor is based on interdigitated electrode structures (IDEs) that have been fabricated by means of thin-film technologies. Impedimetric measurements are applied to study the effect of sterilization process on spores of Bacillus atrophaeus. This resilient microorganism is commonly used in industry to proof the sterilization efficiency. The sensor measurements are accompanied by conventional microbiological challenge tests, as well as morphological characterizations with scanning electron microscopy (SEM) and transmission electron microscopy (TEM). The sensor measurements are correlated with the microbiological test routines. In both methods, namely the sensor-based and microbiological one, a tailing effect has been observed. The results are evaluated and discussed in a three-dimensional calibration plot demonstrating the sensor's suitability to enable a rapid process decision in terms of a successfully performed sterilization.
Dimensionen 2-2018: Magazin der FH Aachen University of Applied Sciences - Virtuelle Realitäten
(2018)
Virtuelle Realitäten
Inhaltsverzeichnis
6 Erweiterte Dimensionen: Special zum Thema Virtual Reality
10 "VR und AR werden unsere Welt durchdringen": Ein Interview zum Potenzial von Virtual und Augmented Reality
14 Lernen aus einem anderen Blickwinkel: VR wird in Studium und Lehre zunehmend angewandt
18 Parallele Realitäten in der Forschung: Virtual und Augmented Reality in Forschungsprojekten
22 Willkommen in der Welt der Möglichkeiten: Wie real ist die Illusion der Realität
24 Eine zündende Idee: Institut für Mikrowellen- und Plasmatechnik (IMP) entwickelt neue Plasmazündkerze für sparsamere Benzinmotoren
28 Der Elefant im Park: "WESTPARK story constructed": Studierende bauen skulpturales Möbel
30 Herr Bernoulli geht auf Reisen: Das "aero | race lab" bringt Experimente zur Luft- und Raumfahrt an die Schulen
32 Eine Auszeit vom Alltag: Martin Stockberg schafft Kunstwerke im Sand
36 Der Einer im urbanen Mobilitätstetris: An der FH Aachen wird urbane Elektromobilität neu gedacht
39 Der Primzahlwürfel: Kopfnuss
40 Schwarz Weiß Bunt: Die politische Kunst des FH-Absolventen Ralf Metzenmacher
44 Die Champions League des Schweißens: LaVa-X will das Laserstrahlschweißen im Vakuum etablieren
46 Auf der Suche nach dem goldenen Schnatz: Stöcke statt Besen. Spielfeld statt Arena. In Jülich spielen Studierende Quidditch.
48 Bei ihm wird Science-Fiction zu Science-Fact: Volker Schmid erzählt von seiner Arbeit beim Deutschen Zentrum für Luft- und Raumfahrt (DLR)
52 Die Ideenschmieden: Junge Menschen aus aller Welt diskutieren bei den Summerschools über Zukunftsthemen
56 Forschung auf höchstem Niveau: Dr. Jan Oberländer und Doktorand Dua Özsoylu stehen für das, was das Institut für Nano- und Biotechnologien auszeichnet
58 Der Dom und ich: Dompublikation und LEGO-Throne zum Jubiläum 40 Jahre UNESCO-Weltkulturerbe
62 Sag "Ja" zum Studium: Der neue kooperative Bachelorstudiengang "Elektrotechnik mit Orientierungssemester"
63 Impressum
After a liver tumor intervention the medical doctor has to compare both pre and postoperative CT acquisitions to ensure that all carcinogenic cells are destroyed. A correct assessment of the intervention is of vital importance, since it will reduce the probability of tumor recurrence. Some methods have been proposed to support the medical doctors during the assessment process, however, all of them focus on secondary tumors. In this paper a tool is presented that enables the outcome validation for both primary and secondary tumors. Therefore, a multiphase registration (preoperative arterial and portal phases) followed by a registration between the pre and postoperative CT images is carried out. The first registration is in charge of the primary tumors that are only visible in the arterial phase. The secondary tumors will be incorporated in the second registration step. Finally, the part of the tumor that was not covered by the necrosis is quantified and visualized. The method has been tested in 9 patients, with an average registration error of 1.41 mm.
BACKGROUND: Muscle stretch reflexes are widely considered to beneficially influence joint stability and power generation in the lower limbs. While in the upper limbs and especially in the muscles surrounding the shoulder joint such evidence is lacking. OBJECTIVE: To quantify the electromyographical response in the muscles crossing the shoulder of specifically trained overhead athletes to an anterior perturbation force. METHODS: Twenty healthy male participants performed six sets of different external shoulder rotation stretches on an isokinetic dynamometer over a range of amplitudes and muscle pre-activation moment levels. All stretches were applied with a dynamometer acceleration of 10,000∘/s2 and a velocity of 150∘/s. Electromyographical response was measured via sEMG. RESULTS: Consistent reflexes were not observed in all experimental conditions. The reflex latencies revealed a significant muscle main effect (F (2,228) = 99.31, p< 0.001; η2= 0.466; f= 0.934) and a pre-activation main effect (F (1,228) = 142.21, p< 0.001; η2= 0.384; f= 1.418). The stretch reflex amplitude yielded a significant pre-activation main effect (F (1,222) = 470.373, p< 0.001; η2= 0.679; f= 1.454). CONCLUSION: Short latency muscle reflexes showed a tendency to an anterior to posterior muscle recruitment whereby the main internal rotator muscles of the shoulder revealed the most consistent results.
Mit modernen nicht invasiven bildgebenden Verfahren lassen sich anhand der Fundusfotografie bzw. der optischen Verfilmung Aspekte der funktionellen und strukturellen retinalen Gefäßveränderungen objektiv untersuchen. Der Zustand und das Verhalten retinaler Gefäße beeinflussen im prä-, post- und kapillaren Bereich den Blutfluss und strömungsbedingte Stoffwechselverhältnisse passiv und aktiv über den Gefäßdurchmesser. Retinale Gefäße gleichen von Aufbau und Funktion den zerebralen Gefäßen und spiegeln den Zustand der Mikrozirkulation wider. Mithilfe von aus den Gefäßweiten berechneten Biomarkern soll eine Aussage über die Prognose von systemischen vaskulär bedingten Erkrankungen getroffen werden. Die statische retinale Gefäßanalyse befasst sich mit der Untersuchung des Zustandes der prä- und postkapillaren Gefäßdurchmesser der retinalen Mikrozirkulation anhand einer optischen Fundusaufnahme. Bei der dynamischen retinalen Gefäßanalyse wird der Längsschnitt eines retinalen Gefäßes nicht invasiv funktionell und strukturell über einen Zeitraum vor, während und nach einer spezifischen vaskulären Stimulation untersucht. Die genaue Methodologie der Auswertung und die Bezeichnung der Parameter variieren bei unterschiedlichen Ansätzen. Mittels retinaler Gefäßanalyse wurden bislang mehrere klinische Querschnitts- und Interventionsstudien in der Augenheilkunde und anderen Fachgebieten, inkl. Kardiologie, Neurologie, Neurochirurgie, Nephrologie, Gynäkologie, Sportmedizin, Diabetologie, Hypertensiologie usw. durchgeführt. Mit der statischen retinalen Gefäßanalyse steht eine kostengünstige, reproduzierbare, nicht invasive Screeningtechnik zur Verfügung, um eine prognostische Aussage über die Gefäßgesundheit eines individuellen Patienten zu treffen. Die dynamische retinale Gefäßanalyse besitzt ein weiteres diagnostisches Anwendungsspektrum als die statische, da sie das Verhalten retinaler Gefäße zeitkontinuierlich untersucht. Die Evaluation vaskulärer Erkrankungen sowie zerebro- bzw. kardiovaskulärer Morbidität und Mortalität mittels mehrerer methodologischer Modalitäten retinaler Gefäßanalyse mit ihren jeweiligen quantitativen Biomarkern bietet eine zukunftsträchtige diagnostische Perspektive. Die interdisziplinäre klinische Anwendung dieser vaskulären Biomarker gewinnt zunehmend an Bedeutung, sowohl in der Augenheilkunde als auch in anderen Fachgebieten.
Bereits 2015 wurde in der Zeitschrift „Qualität in der Wissenschaft“ (QiW) über das Kooperationsprojekt „Guter Studienstart im Ingenieurbereich“, das Orientierungssemester von RWTH und FH Aachen, berichtet. In diesem Artikel legen wir den Schwerpunkt auf die Entwicklung des Projekts in den Jahren 2015 bis 2018 und geben eine Rückschau sowie einen Ausblick auf die Entwicklungsperspektiven nach dem offiziellen Projektende.
Sensor positioning and thermal model for condition monitoring of pressure gas reservoirs in vehicles
(2018)
For smaller railway operators or those with a diverse fleet, it can be difficult to collect sufficient data to improve maintenance programs. At the same time, new rules such as entity in charge of maintenance – ECM – regulations impose an additional workload by requiring a dedicated maintenance management system and specific reports. The RailCrowd platform sets out to facilitate compliance with ECM and similar regulations while at the same time pooling anonymised fleet data across operators to form virtual fleets, providing greater data insights.
Rare event simulation to optimise maintenance intervals of safety critical redundant subsystems
(2018)
Slot die coating is applied to deposit thin and homogenous films in roll-to-roll and sheet-to-sheet applications. The critical step in operation is to choose suitable process parameters within the process window. In this work, we investigate an upper limit for stripe coatings. This maximum film thickness is characterized by stripe merging which needs to be avoided in a stable process. It is shown that the upper limit reduces the process window for stripe coatings to a major extent. As a result, stripe coatings at large coating gaps and low viscosities are only possible for relatively thick films. Explaining the upper limit, a theory of balancing the side pressure in the gap region in the cross-web direction has been developed.
Wenn durch innovative, automatisierte Güterwagen betriebswirtschaftliche Vorteile nutzbar gemacht werden sollen, muss die Migration auf das neue System in sinnvollen Teilschritten unter Berücksichtigung der organisationellen und betrieblichen Vereinbarkeit vorgenommen werden. Eine stufenweise Migration mit Nachrüstbarkeit und Kompatibilität kann die optimale Ausstattungsvariante für die unterschiedlichen Betriebsszenarien sowie eine Steigerung der Wirtschaftlichkeit des Gesamtsystems bieten.
Die Batterie ist eine der absolut zentralen Komponenten des Elektrofahrzeugs. Die serielle Entwicklung und Produktion dieser Batterien und die Verbesserung der Leistungen wird entscheidend für den Erfolg der Elektromobilität sein. Die Batterie ist jedoch nicht das einzige elektrofahrzeugspezifische System, das neu entwickelt, umkonzipiert oder verbessert werden muss. So sind ebenso die Entwicklung der neuen Fahrzeugstruktur sowie des elektrifizierten Antriebsstranges Teil dieses Kapitels. Weiterhin wird ein Blick auf das bedeutende Thema des Thermomanagements geworfen.
In energy economy forecasts of different time series are rudimentary. In this study, a prediction for the German day-ahead spot market is created with Apache Spark and R. It is just an example for many different applications in virtual power plant environments. Other examples of use as intraday price processes, load processes of machines or electric vehicles, real time energy loads of photovoltaic systems and many more time series need to be analysed and predicted.
This work gives a short introduction into the project where this study is settled. It describes the time series methods that are used in energy industry for forecasts shortly. As programming technique Apache Spark, which is a strong cluster computing technology, is utilised. Today, single time series can be predicted. The focus of this work is on developing a method to parallel forecasting, to process multiple time series simultaneously with R and Apache Spark.
Around 60% of the paper worldwide is made from recovered paper. Especially adhesive contaminants, so called stickies, reduce paper quality. To remove stickies but at the same time keep as many valuable fibers as possible, multi-stage screening systems with several interconnected pressure screens are used. When planning such systems, suitable screens have to be selected and their interconnection as well as operational parameters have to be defined considering multiple conflicting objectives. In this contribution, we present a Mixed-Integer Nonlinear Program to optimize system layout, component selection and operation to find a suitable trade-off between output quality and yield.
Given industrial applications, the costs for the operation and maintenance of a pump system typically far exceed its purchase price. For finding an optimal pump configuration which minimizes not only investment, but life-cycle costs, methods like Technical Operations Research which is based on Mixed-Integer Programming can be applied. However, during the planning phase, the designer is often faced with uncertain input data, e.g. future load demands can only be estimated. In this work, we deal with this uncertainty by developing a chance-constrained two-stage (CCTS) stochastic program. The design and operation of a booster station working under uncertain load demand are optimized to minimize total cost including purchase price, operation cost incurred by energy consumption and penalty cost resulting from water shortage. We find optimized system layouts using a sample average approximation (SAA) algorithm, and analyze the results for different risk levels of water shortage. By adjusting the risk level, the costs and performance range of the system can be balanced, and thus the
system’s resilience can be engineered
To increase pressure to supply all floors of high buildings with water, booster stations, normally consisting of several parallel pumps in the basement, are used. In this work, we demonstrate the potential of a decentralized pump topology regarding energy savings in water supply systems of skyscrapers. We present an approach, based on Mixed-Integer Nonlinear Programming, that allows to choose an optimal network topology and optimal pumps from a predefined construction kit comprising different pump types. Using domain-specific scaling laws and Latin Hypercube Sampling, we generate different input sets of pump types and compare their impact on the efficiency and cost of the total system design. As a realistic application example, we consider a hotel building with 325 rooms, 12 floors and up to four pressure zones.
Highly competitive markets paired with tremendous production volumes demand particularly cost efficient products. The usage of common parts and modules across product families can potentially reduce production costs. Yet, increasing commonality typically results in overdesign of individual products. Multi domain virtual prototyping enables designers to evaluate costs and technical feasibility of different single product designs at reasonable computational effort in early design phases. However, savings by platform commonality are hard to quantify and require detailed knowledge of e.g. the production process and the supply chain. Therefore, we present and evaluate a multi-objective metamodel-based optimization algorithm which enables designers to explore the trade-off between high commonality and cost optimal design of single products.
Resilience as a concept has found its way into different disciplines to describe the ability of an individual or system to withstand and adapt to changes in its environment. In this paper, we provide an overview of the concept in different communities and extend it to the area of mechanical engineering. Furthermore, we present metrics to measure resilience in technical systems and illustrate them by applying them to load-carrying structures. By giving application examples from the Collaborative Research Centre (CRC) 805, we show how the concept of resilience can be used to control uncertainty during different stages of product life.
The overall energy efficiency of ventilation systems can be improved by considering not only single components, but by considering as well the interplay between every part of the system. With the help of the method "TOR" ("Technical Operations Research"), which was developed at the Chair of Fluid Systems at TU Darmstadt, it is possible to improve the energy efficiency of the whole system by considering all possible design choices programmatically. We show the ability of this systematic design approach with a ventilation system for buildings as a use case example.
Based on a Mixed-Integer Nonlinear Program (MINLP) we model the ventilation system. We use binary variables to model the selection of different pipe diameters. Multiple fans are model with the help of scaling laws. The whole system is represented by a graph, where the edges represent the pipes and fans and the nodes represents the source of air for cooling and the sinks, that have to be cooled. At the beginning, the human designer chooses a construction kit of different suitable fans and pipes of different diameters and different load cases. These boundary conditions define a variety of different possible system topologies. It is not possible to consider all topologies by hand. With the help of state of the art solvers, on the other side, it is possible to solve this MINLP.
Next to this, we also consider the effects of malfunctions in different components. Therefore, we show a first approach to measure the resilience of the shown example use case. Further, we compare the conventional approach with designs that are more resilient. These more resilient designs are derived by extending the before mentioned model with further constraints, that consider explicitly the resilience of the overall system. We show that it is possible to design resilient systems with this method already in the early design stage and compare the energy efficiency and resilience of these different system designs.
The energy-efficiency of technical systems can be improved by a systematic design approach. Technical Operations Research (TOR) employs methods known from Operations Research to find a global optimal layout and operation strategy of technical systems. We show the practical usage of this approach by the systematic design of a decentralized water supply system for skyscrapers. All possible network options and operation strategies are modeled by a Mixed-Integer Nonlinear Program. We present the optimal system found by our approach and highlight the energy savings compared to a conventional system design.
The UN sets the goal to ensure access to water and sanitation for all people by 2030. To address this goal, we present a multidisciplinary approach for designing water supply networks for slums in large cities by applying mathematical optimization. The problem is modeled as a mixed-integer linear problem (MILP) aiming to find a network describing the optimal supply infrastructure. To illustrate the approach, we apply it on a small slum cluster in Dhaka, Bangladesh.
Ensuring access to water and sanitation for all is Goal No. 6 of the 17 UN Sustainability Development Goals to transform our world. As one step towards this goal, we present an approach that leverages remote sensing data to plan optimal water supply networks for informal urban settlements. The concept focuses on slums within large urban areas, which are often characterized by a lack of an appropriate water supply. We apply methods of mathematical optimization aiming to find a network describing the optimal supply infrastructure. Hereby, we choose between different decentral and central approaches combining supply by motorized vehicles with supply by pipe systems. For the purposes of illustration, we apply the approach to two small slum clusters in Dhaka and Dar es Salaam. We show our optimization results, which represent the lowest cost water supply systems possible. Additionally, we compare the optimal solutions of the two clusters (also for varying input parameters, such as population densities and slum size development over time) and describe how the result of the optimization depends on the entered remote sensing data.
Nahezu 100.000 denkbare Strukturen kann ein Getriebe bei gleicher Funktion aufweisen - je nach Ganganzahl und gefordertem Freiheitsgrad. Mit dem traditionellen Ansatz bei der Entwicklung, einzelne vielversprechende Systemkonfigurationen manuell zu identifizieren und zu vergleichen, können leicht innovative und vor allem kostenminimale Lösungen übersehen werden. Im Rahmen eines Forschungsprojekts hat die TU Darmstadt spezielle Optimierungsmethoden angewendet, um auch bei großen Lösungsräumen zielsicher ein für die individuellen Zielstellungen optimales Layout zu finden.
On obligations in the development process of resilient systems with algorithmic design methods
(2018)
Advanced computational methods are needed both for the design of large systems and to compute high accuracy solutions. Such methods are efficient in computation, but the validation of results is very complex, and highly skilled auditors are needed to verify them. We investigate legal questions concerning obligations in the development phase, especially for technical systems developed using advanced methods. In particular, we consider methods of resilient and robust optimization. With these techniques, high performance solutions can be found, despite a high variety of input parameters. However, given the novelty of these methods, it is uncertain whether legal obligations are being met. The aim of this paper is to discuss if and how the choice of a specific computational method affects the developer’s product liability. The review of legal obligations in this paper is based on German law and focuses on the requirements that must be met during the design and development process.
The continuing growth of scientific publications raises the question how research processes can be digitalized and thus realized more productively. Especially in information technology fields, research practice is characterized by a rapidly growing volume of publications. For the search process various information systems exist. However, the analysis of the published content is still a highly manual task. Therefore, we propose a text analytics system that allows a fully digitalized analysis of literature sources. We have realized a prototype by using EBSCO Discovery Service in combination with IBM Watson Explorer and demonstrated the results in real-life research projects. Potential addressees are research institutions, consulting firms, and decision-makers in politics and business practice.
Das anhaltende Wachstum wissenschaftlicher Veröffentlichungen wirft die Fragestellung auf, wie Literaturana-lysen im Rahmen von Forschungsprozessen digitalisiert und somit produktiver realisiert werden können. Insbesondere in informationstechnischen Fachgebieten ist die Forschungspraxis durch ein rasant wachsendes Publikationsaufkommen gekennzeichnet. Infolgedessen bietet sich der Einsatz von Methoden der Textanalyse (Text Analytics) an, die Textdaten automatisch vorbereiten und verarbeiten können. Erkenntnisse entstehen dabei aus Analysen von Wortarten und Subgruppen, Korrelations- sowie Zeitreihenanalysen. Dieser Beitrag stellt die Konzeption und Realisierung eines Prototypen vor, mit dem Anwender bibliographische Daten aus der etablierten Literaturdatenbank EBSCO Discovery Service mithilfe textanalytischer Methoden erschließen können. Der Prototyp basiert auf dem Analysesystem IBM Watson Explorer, das Hochschulen lizenzkostenfrei zur Verfügung steht. Potenzielle Adressaten des Prototypen sind Forschungseinrichtungen, Beratungsunternehmen sowie Entscheidungsträger in Politik und Unternehmenspraxis.
Angesichts des anhaltenden Wachstums wissenschaftlicher Veröffentlichungen werden Instrumente benötigt, um Literaturanalysen durch Digitalisierung produktiver zu gestalten. Dieser Beitrag stellt einen Ansatz vor, der bibliographische Daten aus der Literaturdatenbank EBSCO Discovery Service mithilfe von Text-Analytics-Methoden erschließt. Die Lösung basiert auf dem Textanalysesystem IBM Watson Explorer und eignet sich für explorative Literaturanalysen, um beispielsweise den Status quo emergierender Technologiefelder in der Literatur zu reflektieren. Die generierten Ergebnisse sind in den Kontext der zunehmenden Werkzeugunterstützung des Literaturrechercheprozesses einzuordnen und können für intra- sowie interinstitutionelle Wissenstransferprozesse in Forschungs- und Beratungskontexten genutzt werden.
Im Rahmen der digitalen Transformation werden innovative Technologiekonzepte, wie z. B. das Internet der Dinge und Cloud Computing als Treiber für weitreichende Veränderungen von Organisationen und Geschäftsmodellen angesehen. In diesem Kontext ist Robotic Process Automation (RPA) ein neuartiger Ansatz zur Prozessautomatisierung, bei dem manuelle Tätigkeiten durch sogenannte Softwareroboter erlernt und automatisiert ausgeführt werden. Dabei emulieren Softwareroboter die Eingaben auf der bestehenden Präsentationsschicht, so dass keine Änderungen an vorhandenen Anwendungssystemen notwendig sind. Die innovative Idee ist die Transformation der bestehenden Prozessausführung von manuell zu digital, was RPA von traditionellen Ansätzen des Business Process Managements (BPM) unterscheidet, bei denen z. B. prozessgetriebene
Anpassungen auf Ebene der Geschäftslogik notwendig sind. Am Markt werden bereits unterschiedliche RPA-Lösungen als Softwareprodukte angeboten. Gerade bei operativen Prozessen mit sich wiederholenden Verarbeitungsschritten in unterschiedlichen Anwendungssystemen sind gute Ergebnisse durch RPA dokumentiert, wie z. B. die Automatisierung von 35 % der Backoffice-Prozesse bei Telefonica. Durch den vergleichsweise niedrigen Implementierungsaufwand verbunden mit einem hohen Automatisierungspotenzial ist in der Praxis (z. B. Banken, Telekommunikation, Energieversorgung) ein hohes Interesse an RPA vorhanden. Der Beitrag diskutiert RPA als innovativen Ansatz zur
Prozessdigitalisierung und gibt konkrete Handlungsempfehlungen für die Praxis. Dazu wird zwischen modellgetriebenen und selbstlernenden Ansätzen unterschieden. Anhand von generellen Architekturen von RPA-Systemen werden Anwendungsszenarien sowie deren Automatisierungspotenziale, aber auch Einschränkungen, diskutiert. Es folgt ein strukturierter Marktüberblick ausgewählter RPA-Produkte. Anhand von drei konkreten Anwendungsbeispielen wird die Nutzung von RPA in der Praxis verdeutlicht.
Nutzen und Rahmenbedingungen 5 informationsgetriebener Geschäftsmodelle des Internets der Dinge
(2018)
Im Kontext der zunehmenden Digitalisierung wird das Internet der Dinge (englisch: Internet of Things, IoT) als ein technologischer Treiber angesehen, durch den komplett neue Geschäftsmodelle im Zusammenspiel unterschiedlicher Akteure entstehen können. Identifizierte Schlüsselakteure sind unter anderem traditionelle Industrieunternehmen, Kommunen und Telekommunikationsunternehmen. Letztere sorgen mit der Bereitstellung von Konnektivität dafür, dass kleine Geräte mit winzigen Batterien nahezu überall und direkt an das Internet angebunden werden können. Es sind schon viele IoT-Anwendungsfälle auf dem Markt, die eine Vereinfachung für Endkunden darstellen, wie beispielsweise Philips Hue Tap. Neben Geschäftsmodellen basierend auf Konnektivität besteht ein großes Potenzial für informationsgetriebene Geschäftsmodelle, die bestehende Geschäftsmodelle unterstützen sowie weiterentwickeln können. Ein Beispiel dafür ist der IoT-Anwendungsfall Park and Joy der Deutschen Telekom AG, bei dem Parkplätze mithilfe von Sensoren vernetzt und Autofahrer in Echtzeit über verfügbare Parkplätze informiert werden. Informationsgetriebene Geschäftsmodelle können auf Daten aufsetzen, die in IoT-Anwendungsfällen erzeugt werden. Zum Beispiel kann ein Telekommunikationsunternehmen Mehrwert schöpfen, indem es aus Daten entscheidungsrelevantere Informationen – sogenannte Insights – ableitet, die zur Steigerung der Entscheidungsagilität genutzt werden. Außerdem können Insights monetarisiert werden. Die Monetarisierung von Insights kann nur nachhaltig stattfinden, wenn sorgfältig gehandelt wird und Rahmenbedingungen berücksichtigt werden. In diesem Kapitel wird das Konzept informationsgetriebener Geschäftsmodelle erläutert und anhand des konkreten Anwendungsfalls Park and Joy verdeutlicht. Darüber hinaus werden Nutzen, Risiken und Rahmenbedingungen diskutiert.
Prozessorientierte Messung der Customer Experience am Beispiel der Telekommunikationsindustrie
(2018)
Hohe Wettbewerbsintensität und gestiegene Kundenanforderungen erfordern bei Telekommunikationsunternehmen eine aktive Gestaltung der Customer Experience (CX). Ein wichtiger Aspekt dabei ist die CX-Messung. Traditionelle Zufriedenheitsmessungen sind oft nicht ausreichend, um die Kundenerfahrung in komplexen Prozessen vollständig zu erfassen. Daher wird in diesem Kapitel eine prozessübergreifende Referenzlösung zur CX-Messung am Beispiel der Telekommunikationsindustrie vorgeschlagen. Ausgangspunkt ist ein industriespezifisches Prozessmodell, das sich an dem Referenzmodell eTOM orientiert. Dieses wird um Messpunkte erweitert, die Schwachstellen in Bezug auf die CX identifizieren. Für die erkannten Schwachstellen werden über eine Referenzmatrix mögliche Auslöser abgeleitet und anhand von typischen Geschäftsfallmengen bewertet. Somit ist eine direkte Zuordnung und Erfolgsmessung konkreter Maßnahmen zur Behebung der Schwachstellen möglich. Die so entwickelte Referenzlösung wurde im Projekt K1 bei der Deutschen Telekom erfolgreich umgesetzt. Details zur Umsetzung werden als Fallstudien dargestellt.
Because of customer churn, strong competition, and operational inefficiencies, the telecommunications operator ME Telco (fictitious name due to confidentiality) launched a strategic transformation program that included a Business Process Management (BPM) project. Major problems were silo-oriented process management and missing cross-functional transparency. Process improvements were not consistently planned and aligned with corporate targets. Measurable inefficiencies were observed on an operational level, e.g., high lead times and reassignment rates of the incident management process.
Malaria infection remains a significant risk for much of the population of tropical and subtropical areas, particularly in developing countries. Therefore, it is of high importance to develop sensitive, accurate and inexpensive malaria diagnosis tests. Here, we present a novel aptamer-based electrochemical biosensor (aptasensor) for malaria detection by impedance spectroscopy, through the specific recognition between a highly discriminatory DNA aptamer and its target Plasmodium falciparum lactate dehydrogenase (PfLDH). Interestingly, due to the isoelectric point (pI) of PfLDH, the aptasensor response showed an adjustable detection range based on the different protein net-charge at variable pH environments. The specific aptamer recognition allows sensitive protein detection with an expanded detection range and a low detection limit, as well as a high specificity for PfLDH compared to analogous proteins. The specific feasibility of the aptasensor is further demonstrated by detection of the target PfLDH in human serum. Furthermore, the aptasensor can be easily regenerated and thus applied for multiple usages. The robustness, sensitivity, and reusability of the presented aptasensor make it a promising candidate for point-of-care diagnostic systems.