Refine
Year of publication
Institute
- Fachbereich Elektrotechnik und Informationstechnik (1190) (remove)
Language
- English (722)
- German (467)
- Multiple languages (1)
Document Type
- Article (631)
- Conference Proceeding (310)
- Book (115)
- Part of a Book (67)
- Patent (17)
- Report (9)
- Other (8)
- Conference: Meeting Abstract (6)
- Contribution to a Periodical (6)
- Course Material (6)
Keywords
- Multimediamarkt (7)
- Enterprise Architecture (5)
- MINLP (5)
- Engineering optimization (4)
- Gamification (4)
- Serious Game (4)
- Auslenkung (3)
- Digitale Transformation (3)
- Digitalisierung (3)
- Education (3)
The RoboCup Logistics League (RCLL) is a robotics competition in a production logistics scenario in the context of a Smart Factory. In the competition, a team of three robots needs to assemble products to fulfill various orders that are requested online during the game. This year, the Carologistics team was able to win the competition with a new approach to multi-agent coordination as well as significant changes to the robot’s perception unit and a pragmatic network setup using the cellular network instead of WiFi. In this paper, we describe the major components of our approach with a focus on the changes compared to the last physical competition in 2019.
Due to the increasing complexity of software projects, software development is becoming more and more dependent on teams. The quality of this teamwork can vary depending on the team composition, as teams are always a combination of different skills and personality types. This paper aims to answer the question of how to describe a software development team and what influence the personality of the team members has on the team dynamics. For this purpose, a systematic literature review (n=48) and a literature search with the AI research assistant Elicit (n=20) were conducted. Result: A person’s personality significantly shapes his or her thinking and actions, which in turn influences his or her behavior in software development teams. It has been shown that team performance and satisfaction can be strongly influenced by personality. The quality of communication and the likelihood of conflict can also be attributed to personality.
This paper presents an approach for reducing the cognitive load for humans working in quality control (QC) for production processes that adhere to the 6σ -methodology. While 100% QC requires every part to be inspected, this task can be reduced when a human-in-the-loop QC process gets supported by an anomaly detection system that only presents those parts for manual inspection that have a significant likelihood of being defective. This approach shows good results when applied to image-based QC for metal textile products.
Digital forensics of smartphones is of utmost importance in many criminal cases. As modern smartphones store chats, photos, videos etc. that can be relevant for investigations and as they can have storage capacities of hundreds of gigabytes, they are a primary target for forensic investigators. However, it is exactly this large amount of data that is causing problems: extracting and examining the data from multiple phones seized in the context of a case is taking more and more time. This bears the risk of wasting a lot of time with irrelevant phones while there is not enough time left to analyze a phone which is worth examination. Forensic triage can help in this case: Such a triage is a preselection step based on a subset of data and is performed before fully extracting all the data from the smartphone. Triage can accelerate subsequent investigations and is especially useful in cases where time is essential. The aim of this paper is to determine which and how much data from an Android smartphone can be made directly accessible to the forensic investigator – without tedious investigations. For this purpose, an app has been developed that can be used with extremely limited storage of data in the handset and which outputs the extracted data immediately to the forensic workstation in a human- and machine-readable format.
KNX is a protocol for smart building automation, e.g., for automated heating, air conditioning, or lighting. This paper analyses and evaluates state-of-the-art KNX devices from manufacturers Merten, Gira and Siemens with respect to security. On the one hand, it is investigated if publicly known vulnerabilities like insecure storage of passwords in software, unencrypted communication, or denialof-service attacks, can be reproduced in new devices. On the other hand, the security is analyzed in general, leading to the discovery of a previously unknown and high risk vulnerability related to so-called BCU (authentication) keys.
Nowadays, the most employed devices for recoding videos or capturing images are undoubtedly the smartphones. Our work investigates the application of source camera identification on mobile phones. We present a dataset entirely collected by mobile phones. The dataset contains both still images and videos collected by 67 different smartphones. Part of the images consists in photos of uniform backgrounds, especially collected for the computation of the RSPN. Identifying the source camera given a video is particularly challenging due to the strong video compression. The experiments reported in this paper, show the large variation in performance when testing an highly accurate technique on still images and videos.
Automated driving is now possible in diverse road and traffic conditions. However, there are still situations that automated vehicles cannot handle safely and efficiently. In this case, a Transition of Control (ToC) is necessary so that the driver takes control of the driving. Executing a ToC requires the driver to get full situation awareness of the driving environment. If the driver fails to get back the control in a limited time, a Minimum Risk Maneuver (MRM) is executed to bring the vehicle into a safe state (e.g., decelerating to full stop). The execution of ToCs requires some time and can cause traffic disruption and safety risks that increase if several vehicles execute ToCs/MRMs at similar times and in the same area. This study proposes to use novel C-ITS traffic management measures where the infrastructure exploits V2X communications to assist Connected and Automated Vehicles (CAVs) in the execution of ToCs. The infrastructure can suggest a spatial distribution of ToCs, and inform vehicles of the locations where they could execute a safe stop in case of MRM. This paper reports the first field operational tests that validate the feasibility and quantify the benefits of the proposed infrastructure-assisted ToC and MRM management. The paper also presents the CAV and roadside infrastructure prototypes implemented and used in the trials. The conducted field trials demonstrate that infrastructure-assisted traffic management solutions can reduce safety risks and traffic disruptions.
Modern implementations of driver assistance systems are evolving from a pure driver assistance to a independently acting automation system. Still these systems are not covering the full vehicle usage range, also called operational design domain, which require the human driver as fall-back mechanism. Transition of control and potential minimum risk manoeuvres are currently research topics and will bridge the gap until full autonomous vehicles are available. The authors showed in a demonstration that the transition of control mechanisms can be further improved by usage of communication technology. Receiving the incident type and position information by usage of standardised vehicle to everything (V2X) messages can improve the driver safety and comfort level. The connected and automated vehicle’s software framework can take this information to plan areas where the driver should take back control by initiating a transition of control which can be followed by a minimum risk manoeuvre in case of an unresponsive driver. This transition of control has been implemented in a test vehicle and was presented to the public during the IEEE IV2022 (IEEE Intelligent Vehicle Symposium) in Aachen, Germany.
The work in modern open-pit and underground mines requires the transportation of large amounts of resources between fixed points. The navigation to these fixed points is a repetitive task that can be automated. The challenge in automating the navigation of vehicles commonly used in mines is the systemic properties of such vehicles. Many mining vehicles, such as the one we have used in the research for this paper, use steering systems with an articulated joint bending the vehicle’s drive axis to change its course and a hydraulic drive system to actuate axial drive components or the movements of tippers if available. To address the difficulties of controlling such a vehicle, we present a model-predictive approach for controlling the vehicle. While the control optimisation based on a parallel error minimisation of the predicted state has already been established in the past, we provide insight into the design and implementation of an MPC for an articulated mining vehicle and show the results of real-world experiments in an open-pit mine environment.
Stand 01.01.2022 sind in Deutschland 618.460 elektrisch angetriebene KFZ zugelassen. Insgesamt sind derzeit 48.540.878 KFZ zugelassen, was einer Elektromobilitätsquote von ca. 1,2 % entspricht. Derzeit werden Elektromobile über Ladestationen oder Steckdosen mit dem Stromnetz verbunden und üblicherweise mit der vollen Ladekapazität des Anschlusses aufgeladen, bis das Batteriemanagementsystem des Fahrzeugs abhängig vom Ladezustand der Batterie die Ladeleistung reduziert.
This paper addresses the pixel based recognition of 3D objects with bidirectional associative memories. Computational power and memory requirements for this approach are identified and compared to the performance of current computer architectures by benchmarking different processors. It is shown, that the performance of special purpose hardware, like neurocomputers, is between one and two orders of magnitude higher than the performance of mainstream hardware. On the other hand, the calculation of small neural networks is performed more efficiently on mainstream processors. Based on these results a novel concept is developed, which is tailored for the efficient calculation of bidirectional associative memories. The computational efficiency is further enhanced by the application of algorithms and storage techniques which are matched to characteristics of the application at hand.
This paper addresses the pixel based classification of three dimensional objects from arbitrary views. To perform this task a coding strategy, inspired by the biological model of human vision, for pixel data is described. The coding strategy ensures that the input data is invariant against shift, scale and rotation of the object in the input domain. The image data is used as input to a class of self organizing neural networks, the Kohonen-maps or self-organizing feature maps (SOFM). To verify this approach two test sets have been generated: the first set, consisting of artificially generated images, is used to examine the classification properties of the SOFMs; the second test set examines the clustering capabilities of the SOFM when real world image data is applied to the network after it has been preprocessed to be invariant against shift, scale and rotation. It is shown that the clustering capability of the SOFM is strongly dependant on the invariance coding of the images.
This paper describes the realization of a novel neurocomputer which is based on the concepts of a coprocessor. In contrast to existing neurocomputers the main interest was the realization of a scalable, flexible system, which is capable of computing neural networks of arbitrary topology and scale, with full independence of special hardware from the software's point of view. On the other hand, computational power should be added, whenever needed and flexibly adapted to the requirements of the application. Hardware independence is achieved by a run time system which is capable of using all available computing power, including multiple host CPUs and an arbitrary number of neural coprocessors autonomously. The realization of arbitrary neural topologies is provided through the implementation of the elementary operations which can be found in most neural topologies.
Aim of the AXON2 project (Adaptive Expert System for Object Recogniton using Neuml Networks) is the development of an object recognition system (ORS) capable of recognizing isolated 3d objects from arbitrary views. Commonly, classification is based on a single feature extracted from the original image. Here we present an architecture adapted from the Mixtures of Eaqerts algorithm which uses multiple neuml networks to integmte different features. During tmining each neural network specializes in a subset of objects or object views appropriate to the properties of the corresponding feature space. In recognition mode the system dynamically chooses the most relevant features and combines them with maximum eficiency. The remaining less relevant features arz not computed and do therefore not decelerate the-recognition process. Thus, the algorithm is well suited for ml-time applications.
In der Vergangenheit basierten große Systemintegrationsprojekte in der Regel auf Individualentwicklungen für einzelne Kunden. Getrieben durch Kostendruck steigt aber der Bedarf nach standardisierten Lösungen, die gleichzeitig die individuellen Anforderungen des jeweiligen Umfelds berücksichtigen. T-Systems GEI GmbH wird beiden Anforderungen mit Produktkerneln gerecht. Neben den technischen Aspekten der Kernelentwicklung spielen besonders organisatorische Aspekte eine Rolle, um Kernel effizient und qualitativ hochwertig zu entwickeln, ohne deren Funktionalitäten ins Uferlose wachsen zu lassen. Umgesetzt hat T-Systems dieses Konzept für Flughafeninformationssysteme. Damit kann dem wachsenden Bedarf der Flughafenbetreiber nach einer effizienten und kostengünstigen Softwarelösung zur Unterstützung Ihrer Geschäftsprozesse entsprochen werden.
Der Erfolg eines Softwarenentwicklungsprojektes insbesondere eines Systemintegrationsprojektes wird mit der Erfüllung des „Teufelsdreiecks“, „In-Time“, „In-Budget“, „In-Quality“ gemessen. Hierzu ist die Kenntnis der Software- und Prozessqualität essenziell, um die Einhaltung der Qualitätskriterien festzustellen, aber auch, um eine Vorhersage hinsichtlich Termin- und Budgettreue zu treffen. Zu diesem Zweck wurde in der T-Systems Systems Integration ein System aus verschiedenen Key Performance Indikatoren entworfen und in der Organisation implementiert, das genau das leistet und die Kriterien für CMMI Level 3 erfüllt.
In this paper we report on CO2 Meter, a do-it-yourself carbon dioxide measuring device for the classroom. Part of the current measures for dealing with the SARS-CoV-2 pandemic is proper ventilation in indoor settings. This is especially important in schools with students coming back to the classroom even with high incidents rates. Static ventilation patterns do not consider the individual situation for a particular class. Influencing factors like the type of activity, the physical structure or the room occupancy are not incorporated. Also, existing devices are rather expensive and often provide only limited information and only locally without any networking. This leaves the potential of analysing the situation across different settings untapped. Carbon dioxide level can be used as an indicator of air quality, in general, and of aerosol load in particular. Since, according to the latest findings, SARS-CoV-2 can be transmitted primarily in the form of aerosols, carbon dioxide may be used as a proxy for the risk of a virus infection. Hence, schools could improve the indoor air quality and potentially reduce the infection risk if they actually had measuring devices available in the classroom. Our device supports schools in ventilation and it allows for collecting data over the Internet to enable a detailed data analysis and model generation. First deployments in schools at different levels were received very positively. A pilot installation with a larger data collection and analysis is underway.
Existing residential buildings have an average lifetime of 100 years. Many of these buildings will exist for at least another 50 years. To increase the efficiency of these buildings while keeping costs at reasonable rates, they can be retrofitted with sensors that deliver information to central control units for heating, ventilation and electricity. This retrofitting process should happen with minimal intervention into existing infrastructure and requires new approaches for sensor design and data transmission. At FH Aachen University of Applied Sciences, students of different disciplines work together to learn how to design, build, deploy and operate such sensors. The presented teaching project already created a low power design for a combined CO2, temperature and humidity measurement device that can be easily integrated into most home automation systems
With the growing interest in small distributed sensors for the “Internet of Things”, more attention is being paid to energy harvesting techologies. Reducing or eliminating the need for external power sources or batteries make devices more self-sufficient, more reliable, and reduces maintenance requirements. The Wiegand effect is a proven technology for harvesting small amounts of electrical power from mechanical motion.
This article describes an Internet of things (IoT) sensing device with a wireless interface which is powered by the energy-harvesting method of the Wiegand effect. The Wiegand effect, in contrast to continuous sources like photovoltaic or thermal harvesters, provides small amounts of energy discontinuously in pulsed mode. To enable an energy-self-sufficient operation of the sensing device with this pulsed energy source, the output energy of the Wiegand generator is maximized. This energy is used to power up the system and to acquire and process data like position, temperature or other resistively measurable quantities as well as transmit these data via an ultra-low-power ultra-wideband (UWB) data transmitter. A proof-of-concept system was built to prove the feasibility of the approach. The energy consumption of the system during start-up was analysed, traced back in detail to the individual components, compared to the generated energy and processed to identify further optimization options. Based on the proof of concept, an application prototype was developed.
In this study, the performance of an integrated body-imaging array for 7 T with 32 radiofrequency (RF) channels under consideration of local specific absorption rate (SAR), tissue temperature, and thermal dose limits was evaluated and the imaging performance was compared with a clinical 3 T body coil.
Thirty-two transmit elements were placed in three rings between the bore liner and RF shield of the gradient coil. Slice-selective RF pulse optimizations for B1 shimming and spokes were performed for differently oriented slices in the body under consideration of realistic constraints for power and local SAR. To improve the B1+ homogeneity, safety assessments based on temperature and thermal dose were performed to possibly allow for higher input power for the pulse optimization than permissible with SAR limits.
The results showed that using two spokes, the 7 T array outperformed the 3 T birdcage in all the considered regions of interest. However, a significantly higher SAR or lower duty cycle at 7 T is necessary in some cases to achieve similar B1+ homogeneity as at 3 T. The homogeneity in up to 50 cm-long coronal slices can particularly benefit from the high RF shim performance provided by the 32 RF channels. The thermal dose approach increases the allowable input power and the corresponding local SAR, in one example up to 100 W/kg, without limiting the exposure time necessary for an MR examination.
In conclusion, the integrated antenna array at 7 T enables a clinical workflow for body imaging and comparable imaging performance to a conventional 3 T clinical body coil.
Carbon nanofiber nonwovens represent a powerful class of materials with prospective application in filtration technology or as electrodes with high surface area in batteries, fuel cells, and supercapacitors. While new precursor-to-carbon conversion processes have been explored to overcome productivity restrictions for carbon fiber tows, alternatives for the two-step thermal conversion of polyacrylonitrile precursors into carbon fiber nonwovens are absent. In this work, we develop a continuous roll-to-roll stabilization process using an atmospheric pressure microwave plasma jet. We explore the influence of various plasma-jet parameters on the morphology of the nonwoven and compare the stabilized nonwoven to thermally stabilized samples using scanning electron microscopy, differential scanning calorimetry, and infrared spectroscopy. We show that stabilization with a non-equilibrium plasma-jet can be twice as productive as the conventional thermal stabilization in a convection furnace, while producing electrodes of comparable electrochemical performance.
Benchmarking of various LiDAR sensors for use in self-driving vehicles in real-world environments
(2022)
Abstract
In this paper, we report on our benchmark results of the LiDAR sensors Livox Horizon, Robosense M1, Blickfeld Cube, Blickfeld Cube Range, Velodyne Velarray H800, and Innoviz Pro. The idea was to test the sensors in different typical scenarios that were defined with real-world use cases in mind, in order to find a sensor that meet the requirements of self-driving vehicles. For this, we defined static and dynamic benchmark scenarios. In the static scenarios, both LiDAR and the detection target do not move during the measurement. In dynamic scenarios, the LiDAR sensor was mounted on the vehicle which was driving toward the detection target. We tested all mentioned LiDAR sensors in both scenarios, show the results regarding the detection accuracy of the targets, and discuss their usefulness for deployment in self-driving cars.
Wiegand-Modul
(2022)
Ein Wiegand-Modul (110;210;310) umfassend- eine Sensorspule (112;212;312),- einen ersten Wiegand-Draht (116a;216a;316a), der zumindest teilweise innerhalb der Sensorspule (112;212;312) angeordnet ist, und- einen zweiten Wiegand-Draht (116b;216b;316b), der zumindest teilweise innerhalb der Sensorspule (112;212;312) angeordnet ist und sich im Wesentlichen parallel zu dem ersten Wiegand-Draht (116a;216a;316a) erstreckt, ist bekannt.Um eine effiziente Ausnutzung der durch die Ummagnetisierung der Wiegand-Drähte (116a,116b;216a,216b;316a,316b) in die Sensorspule (112;212;312) induzierten elektrischen Energie zu ermöglichen, sind der erste Wiegand-Draht (116a;216a;316a) und der zweite Wiegand-Draht (116b;216b;316b) bezogen auf eine axiale Richtung der Sensorspule (112;212;312) versetzt zueinander angeordnet.
This paper describes the potential for developing a digital twin of society- a dynamic model that can be used to observe, analyze, and predict the evolution of various societal aspects. Such a digital twin can help governmental agencies and policy makers in interpreting trends, understanding challenges, and making decisions regarding investments or policies necessary to support societal development and ensure future prosperity. The paper reviews related work regarding the digital twin paradigm and its applications. The paper presents a motivating case study- an analysis of opportunities and challenges faced by the German federal employment agency, Bundesagentur f¨ur Arbeit (BA), proposes solutions using digital twins, and describes initial proofs of concept for such solutions.
Dieser Beitrag stellt einen Bewertungsrahmen für Smart Services vor, der auf dem Konzept vollständiger Finanzpläne (VOFI) basiert. Zunächst wird eine IoT-Architektur für Smart Services eingeführt, die die Grundlage für deren Betrachtung aus Sicht der Unternehmensplanung liefert. Hierauf aufbauend wird ein Bewertungsrahmen für die finanzplanorientierte Wirtschaftlichkeitsbewertung von Smart Services geschaffen, mit dem die relevanten Zahlungsfolgen differenziert erfasst werden. Mithilfe des entwickelten VOFI-Systems wird anschließend aufgezeigt, wie mithilfe einer Risikoanalyse die Unsicherheit von Modellparametern berücksichtigt werden kann.
Because of customer churn, strong competition, and operational inefficiencies, the telecommunications operator ME Telco (fictitious name due to confidentiality) launched a strategic transformation program that included a Business Process Management (BPM) project. Major problems were silo-oriented process management and missing cross-functional transparency. Process improvements were not consistently planned and aligned with corporate targets. Measurable inefficiencies were observed on an operational level, e.g., high lead times and reassignment rates of the incident management process.
Prozessorientierte Messung der Customer Experience am Beispiel der Telekommunikationsindustrie
(2018)
Hohe Wettbewerbsintensität und gestiegene Kundenanforderungen erfordern bei Telekommunikationsunternehmen eine aktive Gestaltung der Customer Experience (CX). Ein wichtiger Aspekt dabei ist die CX-Messung. Traditionelle Zufriedenheitsmessungen sind oft nicht ausreichend, um die Kundenerfahrung in komplexen Prozessen vollständig zu erfassen. Daher wird in diesem Kapitel eine prozessübergreifende Referenzlösung zur CX-Messung am Beispiel der Telekommunikationsindustrie vorgeschlagen. Ausgangspunkt ist ein industriespezifisches Prozessmodell, das sich an dem Referenzmodell eTOM orientiert. Dieses wird um Messpunkte erweitert, die Schwachstellen in Bezug auf die CX identifizieren. Für die erkannten Schwachstellen werden über eine Referenzmatrix mögliche Auslöser abgeleitet und anhand von typischen Geschäftsfallmengen bewertet. Somit ist eine direkte Zuordnung und Erfolgsmessung konkreter Maßnahmen zur Behebung der Schwachstellen möglich. Die so entwickelte Referenzlösung wurde im Projekt K1 bei der Deutschen Telekom erfolgreich umgesetzt. Details zur Umsetzung werden als Fallstudien dargestellt.
Nutzen und Rahmenbedingungen 5 informationsgetriebener Geschäftsmodelle des Internets der Dinge
(2018)
Im Kontext der zunehmenden Digitalisierung wird das Internet der Dinge (englisch: Internet of Things, IoT) als ein technologischer Treiber angesehen, durch den komplett neue Geschäftsmodelle im Zusammenspiel unterschiedlicher Akteure entstehen können. Identifizierte Schlüsselakteure sind unter anderem traditionelle Industrieunternehmen, Kommunen und Telekommunikationsunternehmen. Letztere sorgen mit der Bereitstellung von Konnektivität dafür, dass kleine Geräte mit winzigen Batterien nahezu überall und direkt an das Internet angebunden werden können. Es sind schon viele IoT-Anwendungsfälle auf dem Markt, die eine Vereinfachung für Endkunden darstellen, wie beispielsweise Philips Hue Tap. Neben Geschäftsmodellen basierend auf Konnektivität besteht ein großes Potenzial für informationsgetriebene Geschäftsmodelle, die bestehende Geschäftsmodelle unterstützen sowie weiterentwickeln können. Ein Beispiel dafür ist der IoT-Anwendungsfall Park and Joy der Deutschen Telekom AG, bei dem Parkplätze mithilfe von Sensoren vernetzt und Autofahrer in Echtzeit über verfügbare Parkplätze informiert werden. Informationsgetriebene Geschäftsmodelle können auf Daten aufsetzen, die in IoT-Anwendungsfällen erzeugt werden. Zum Beispiel kann ein Telekommunikationsunternehmen Mehrwert schöpfen, indem es aus Daten entscheidungsrelevantere Informationen – sogenannte Insights – ableitet, die zur Steigerung der Entscheidungsagilität genutzt werden. Außerdem können Insights monetarisiert werden. Die Monetarisierung von Insights kann nur nachhaltig stattfinden, wenn sorgfältig gehandelt wird und Rahmenbedingungen berücksichtigt werden. In diesem Kapitel wird das Konzept informationsgetriebener Geschäftsmodelle erläutert und anhand des konkreten Anwendungsfalls Park and Joy verdeutlicht. Darüber hinaus werden Nutzen, Risiken und Rahmenbedingungen diskutiert.
Im Rahmen der digitalen Transformation werden innovative Technologiekonzepte, wie z. B. das Internet der Dinge und Cloud Computing als Treiber für weitreichende Veränderungen von Organisationen und Geschäftsmodellen angesehen. In diesem Kontext ist Robotic Process Automation (RPA) ein neuartiger Ansatz zur Prozessautomatisierung, bei dem manuelle Tätigkeiten durch sogenannte Softwareroboter erlernt und automatisiert ausgeführt werden. Dabei emulieren Softwareroboter die Eingaben auf der bestehenden Präsentationsschicht, so dass keine Änderungen an vorhandenen Anwendungssystemen notwendig sind. Die innovative Idee ist die Transformation der bestehenden Prozessausführung von manuell zu digital, was RPA von traditionellen Ansätzen des Business Process Managements (BPM) unterscheidet, bei denen z. B. prozessgetriebene
Anpassungen auf Ebene der Geschäftslogik notwendig sind. Am Markt werden bereits unterschiedliche RPA-Lösungen als Softwareprodukte angeboten. Gerade bei operativen Prozessen mit sich wiederholenden Verarbeitungsschritten in unterschiedlichen Anwendungssystemen sind gute Ergebnisse durch RPA dokumentiert, wie z. B. die Automatisierung von 35 % der Backoffice-Prozesse bei Telefonica. Durch den vergleichsweise niedrigen Implementierungsaufwand verbunden mit einem hohen Automatisierungspotenzial ist in der Praxis (z. B. Banken, Telekommunikation, Energieversorgung) ein hohes Interesse an RPA vorhanden. Der Beitrag diskutiert RPA als innovativen Ansatz zur
Prozessdigitalisierung und gibt konkrete Handlungsempfehlungen für die Praxis. Dazu wird zwischen modellgetriebenen und selbstlernenden Ansätzen unterschieden. Anhand von generellen Architekturen von RPA-Systemen werden Anwendungsszenarien sowie deren Automatisierungspotenziale, aber auch Einschränkungen, diskutiert. Es folgt ein strukturierter Marktüberblick ausgewählter RPA-Produkte. Anhand von drei konkreten Anwendungsbeispielen wird die Nutzung von RPA in der Praxis verdeutlicht.
Due to the high number of customer contacts, fault clearances, installations, and product provisioning per year, the automation level of operational processes has a significant impact on financial results, quality, and customer experience. Therefore, the telecommunications operator Deutsche Telekom (DT) has defined a digital strategy with the objectives of zero complexity and zero complaint, one touch, agility in service, and disruptive thinking. In this context, Robotic Process Automation (RPA) was identified as an enabling technology to formulate and realize DT’s digital strategy through automation of rule-based, routine, and predictable tasks in combination with structured and stable data.
Information technologies, such as big data analytics, cloud computing,
cyber physical systems, robotic process automation, and the internet of things, provide a sustainable impetus for the structural development of business sectors as well as the digitalization of markets, enterprises, and processes. Within the consulting industry, the proliferation of these technologies opened up the new segment of digital transformation, which focuses on setting up, controlling, and implementing projects for enterprises from a broad range of sectors. These recent developments raise the question, which requirements evolve for IT consultants as important success factors of those digital transformation projects. Therefore, this empirical contribution provides indications regarding the qualifications and competences necessary for IT consultants in the era of digital transformation from a labor market perspective. On the one hand, this knowledge base is interesting for the academic education of consultants, since it supports a market-oriented design of adequate training measures. On the other hand, insights into the competence requirements for consultants are considered relevant for skill and talent management processes in consulting practice. Assuming that consulting companies pursue a strategic human resource management approach, labor market information may also be useful to discover strategic behavioral patterns.
In der Diskussion über die Digitalisierung der Forschung spielt die Frage nach der optimalen IT-Unterstützung für Forschende eine wichtige Rolle. Forschende können heute an ihren Hochschulen bzw. Wissenschaftseinrichtungen auf ein breites Angebot interner IT-Dienstleistungen zurückgreifen, das auch kooperative IT-Dienste umfasst, die von mehreren Institutionen in Zusammenarbeit bereitgestellt werden. Außerhalb der eigenen Organisation und des weiteren Verbunds hat sich im Internet zudem ein breites externes Angebot an innovativen, häufig kostenlos nutzbaren Onlinediensten entwickelt. Neben horizontalen Onlinediensten, die sich prinzipiell an jeden Internetnutzer richten (bspw. Dropbox, Twitter, WhatsApp), nimmt auch die Zahl von vertikalen Diensten für wissenschaftliche bzw. Forschungszwecke immer weiter zu (bspw. GoogleScholar, ResearchGate, figshare). Für Forschende eröffnen sich damit vielfältige neue Möglichkeiten, ihren individuellen Forschungsprozess durch digitale Werkzeuge zu verbessern. Aufgrund rechtlicher, technischer und personeller Restriktionen können jedoch interne Dienstleister bei der Identifizierung, Auswahl und Nutzung externer Onlinedienste nur wenig Unterstützung leisten. Aus einer serviceorientierten Perspektive stehen Forschende zunehmend vor dem Problem, wie sich heterogene IT-Dienste interner und externer Anbieter in den eigenen Forschungsprozess integrieren lassen. Als Lösungsansatz skizziert das Kapitel das Konzept eines persönlichen Forschungsinformationssystems
nach Gesichtspunkten eines digitalen Servicesystems.
Recently, novel AI-based services have emerged in the consumer market. AI-based services can affect the way consumers take commercial decisions. Research on the influence of AI on commercial interactions is in its infancy. In this chapter, a framework creating a first overview of the influence of AI on commercial interactions is introduced. This framework summarizes the findings of comparing numerous customer journeys of novel AI-based services with corresponding non-AI equivalents.
Einfluss von Künstlicher Intelligenz auf Customer Journeys am Beispiel von intelligentem Parken
(2021)
Im Konsumentenmarkt entstehen vermehrt neue Anwendungen von Künstlicher
Intelligenz (KI). Zunehmend drängen auch Geräte und Dienste in den Markt, die
eigenständig über das Internet kommunizieren. Dadurch können diese Geräte und
Dienste mit neuartigen KI-basierten Diensten verbessert werden. Solche Dienste
können die Art und Weise beeinflussen, wie Kunden kommerzielle Entscheidungen
treffen und somit das Kundenerlebnis maßgeblich verändern. Der Einfluss von KI
auf kommerzielle Interaktionen wurde bisher noch nicht umfassend untersucht.
Basierend auf einem Framework, welches einen ersten Überblick über die Effekte
von KI auf kommerzielle Interaktionen gibt, wird in diesem Kapitel der Einfluss von KI auf Customer Journeys am konkreten Anwendungsfall des intelligenten Parkens analysiert. Die daraus gewonnenen Erkenntnisse können in der Praxis als Grundlage
genutzt werden, um das Potenzial von KI zu verstehen und bei der Gestaltung eigener Customer Journeys umzusetzen.
Intelligent autonomous software robots replacing human activities and performing administrative processes are reality in today’s corporate world. This includes, for example, decisions about invoice payments, identification of customers for a marketing campaign, and answering customer complaints. What happens if such a software robot causes a damage? Due to the complete absence of human activities, the question is not trivial. It could even happen that no one is liable for a damage towards a third party, which could create an uncalculatable legal risk for business partners. Furthermore, the implementation and operation of those software robots involves various stakeholders, which result in the unsolvable endeavor of identifying the originator of a damage. Overall it is advisable to all involved parties to carefully consider the legal situation. This chapter discusses the liability of software robots from an interdisciplinary perspective. Based on different technical scenarios the legal aspects of liability are discussed.
The benefits of robotic process automation (RPA) are highly related to the usage of commercial off-the-shelf (COTS) software products that can be easily implemented and customized by business units. But, how to find the best fitting RPA product for a specific situation that creates the expected benefits? This question is related to the general area of software evaluation and selection. In the face of more than 75 RPA products currently on the market, guidance considering those specifics is required. Therefore, this chapter proposes a criteria-based selection method specifically for RPA. The method includes a quantitative evaluation of costs and benefits as well as a qualitative utility analysis based on functional criteria. By using the visualization of financial implications (VOFI) method, an application-oriented structure is provided that opposes the total cost of ownership to the time savings times salary (TSTS). For the utility analysis a detailed list of functional criteria for RPA is offered. The whole method is based on a multi-vocal review of scientific and non-scholarly literature including publications by business practitioners, consultants, and vendors. The application of the method is illustrated by a concrete RPA example. The illustrated
structures, templates, and criteria can be directly utilized by practitioners in their real-life RPA implementations. In addition, a normative decision process for selecting RPA alternatives is proposed before the chapter closes with a discussion and outlook.
Robotic process automation (RPA) has attracted increasing attention in research and practice. This chapter positions, structures, and frames the topic as an introduction to this book. RPA is understood as a broad concept that comprises a variety of concrete solutions. From a management perspective RPA offers an innovative approach for realizing automation potentials, whereas from a technical perspective the implementation based on software products and the impact of artificial intelligence (AI) and machine learning (ML) are relevant. RPA is industry-independent and can be used, for example, in finance, telecommunications, and the public sector. With respect to RPA this chapter discusses definitions, related approaches, a structuring framework, a research framework, and an inside as well as outside architectural view. Furthermore, it provides an overview of the book combined with short summaries of each chapter.
Subject of this case is Deutsche Telekom Services Europe (DTSE), a service center for administrative processes. Due to the high volume of repetitive tasks (e.g., 100k manual uploads of offer documents into SAP per year), automation was identified as an important strategic target with a high management attention and commitment. DTSE has to work with various backend application systems without any possibility to change those systems. Furthermore, the complexity of administrative processes differed. When it comes to the transfer of unstructured data (e.g., offer documents) to structured data (e.g., MS Excel files), further cognitive technologies were needed.
Unternehmen sind in der Regel überzeugt, dass sie die Bedürfnisse ihrer Kunden in den Mittelpunkt stellen. Aber in der direkten Interaktion mit dem Kunden zeigen sie häufig Schwächen. Der folgende Beitrag illustriert, wie durch eine konsequente Ausrichtung der Wertschöpfungsprozesse auf die zentralen Kundenbedürfnisse ein Dreifacheffekt erzielt werden kann: Nachhaltig erhöhte Kundenzufriedenheit, gesteigerte Effizienz und eine Differenzierung im Wettbewerb.
Kundenanforderungen an Netzwerke haben sich in den vergangenen Jahren stark verändert. Mit NFV und SDN sind Unternehmen technisch in der Lage, diesen gerecht zu werden. Die Provider stehen jedoch vor großen Herausforderungen: Insbesondere Produkte und Prozesse müssen angepasst und agiler werden, um die Stärken von NFV und SDN zum Kundenvorteil auszuspielen.
Die Durchführung einer systematischen Literaturrecherche ist eine zentrale Kompetenz wissenschaftlichen Arbeitens und bildet daher einen festen Ausbildungsbestandteil von Bachelor- und Masterstudiengängen. In entsprechenden Lehrveranstaltungen werden Studierende zwar mit den grundlegenden Hilfsmitteln zur Suche und Verwaltung von Literatur vertraut gemacht, allerdings werden die Potenziale textanalytischer Methoden und Anwendungssysteme (Text Mining, Text Analytics) dabei zumeist nicht abgedeckt. Folglich werden Datenkompetenzen, die zur systemgestützten Analyse und Erschließung von Literaturdaten erforderlich sind, nicht hinreichend ausgeprägt. Um diese Kompetenzlücke zu adressieren, ist an der Hochschule Osnabrück eine Lehrveranstaltung konzipiert und projektorientiert umgesetzt worden, die sich insbesondere an Studierende wirtschaftswissenschaftlicher Studiengänge richtet. Dieser Beitrag dokumentiert die fachliche sowie technische Ausgestaltung dieser Veranstaltung und zeigt Potenziale für die künftige Weiterentwicklung auf.
Die Telekommunikationsindustrie hat in den letzten Jahrzehnten einen enormen Wandel vollzogen. Für Telekommunikationsunternehmen erfordert dies fundamentale Umstrukturierungen von Strategie, Prozessen, Anwendungssystemen und Netzwerktechnologien. Dabei spielen Unternehmensarchitekturen und Referenzmodelle eine wichtige Rolle. Zwar existieren in der Praxis anerkannte Referenzmodelle, aber wie sind diese für eine systematische Transformation zu gestalten? Wie sieht eine konkrete Lösung für die Telekommunikationsindustrie aus?
Als Antwort stellt Christian Czarnecki in seinem Buch eine referenzmodellbasierte Unternehmensarchitektur vor. Basierend auf einer umfangreichen Untersuchung von Transformationsprojekten werden Probleme und Anforderungen der Praxis identifiziert, für die mit Methoden der Unternehmenstransformation, Referenzmodellierung und Unternehmensarchitektur ein Lösungsvorschlag entwickelt und evaluiert wird. Dieser besteht u. a. aus detaillierten Anwendungsfällen, Referenzprozessabläufen, einer Zuordnung von Prozessen zu Anwendungssystemen sowie Handlungsempfehlungen zur Virtualisierung.
Für Wissenschaftler und Studierende der Wirtschaftsinformatik zeigt das Buch neue Erkenntnisse einer anwendungsorientierten Referenzmodellierung. Für Praktiker liefert es eine methodisch fundierte Lösung für die aktuellen Transformationsbedarfe der Telekommunikationsindustrie. Christian Czarnecki arbeitet seit 2004 als Unternehmensberater und hat viele Telekommunikationsunternehmen bei deren Transformation begleitet. In 2013 erfolgte die Promotion zum Doktoringenieur an der Otto-von-Guericke-Universität Magdeburg.
This book reflects the tremendous changes in the telecommunications industry in the course of the past few decades – shorter innovation cycles, stiffer competition and new communication products. It analyzes the transformation of processes, applications and network technologies that are now expected to take place under enormous time pressure. The International Telecommunication Union (ITU) and the TM Forum have provided reference solutions that are broadly recognized and used throughout the value chain of the telecommunications industry, and which can be considered the de facto standard. The book describes how these reference solutions can be used in a practical context: it presents the latest insights into their development, highlights lessons learned from numerous international projects and combines them with well-founded research results in enterprise architecture management and reference modeling. The complete architectural transformation is explained, from the planning and set-up stage to the implementation. Featuring a wealth of examples and illustrations, the book offers a valuable resource for telecommunication professionals, enterprise architects and project managers alike.
How does the implementation of a next generation network influence a telecommunication company?
(2009)
As the potential of a Next Generation Network (NGN) is recognized, telecommunication companies consider switching to it. Although the implementation of an NGN seems to be merely a modification of the network infrastructure, it may trigger or require changes in the whole company and even influence the company strategy. To capture the effects of NGN we propose a framework based on concepts of business engineering and technical recommendations for the introduction of NGN technology. The specific design of solutions for the layers "Strategy", "Processes" and "Information Systems" as well as their interdependencies are an essential characteristic of the developed framework. We have per-formed a case study on NGN implementation and observed that all layers captured by our framework are influenced by the introduction of an NGN.
Durch die Fragmentierung von Wertschöpfungsketten ergeben sich neue Herausforderungen für das Management von Kundenbeziehungen. Die Dissertation untersucht die daraus resultierenden Anforderungen an eine übergreifende Integration von Customer Relationship Management in der
Telekommunikationsindustrie. Ziel ist es, durch Anwendung von Methoden eines Enterprise Architecture Framework eine übergreifend Lösung zu gestalten. Grundlegende Prämisse dabei ist, dass die übergreifende Gestaltung eines Customer Relationship Management für alle an der
Wertschöpfung beteiligten Unternehmen vorteilhaft ist.
Market changes have forced telecommunication companies to transform their business. Increased competition, short innovation cycles, changed usage patterns, increased customer expectations and cost reduction are the main drivers. Our objective is to analyze to what extend transformation projects have improved the orientation towards the end-customers. Therefore, we selected 38 real-life case studies that are dealing with customer orientation. Our analysis is based on a telecommunication-specific framework that aligns strategy, business processes and information systems. The result of our analysis shows the following: transformation projects that aim to improve the customer orientation are combined with clear goals on costs and revenue of the enterprise. These projects are usually directly linked to the customer touch points, but also to the development and provisioning of products. Furthermore, the analysis shows that customer orientation is not the sole trigger for transformation. There is no one-fits-all solution; rather, improved customer orientation needs aligned changes of business processes as well as information systems related to different parts of the company.
Die Veränderungen des Telekommunikationsmarktes haben in der Praxis zu einer Vielzahl von Transformationsprojekten geführt. Was gehört aber zu einem “Transformationsprojekt”, welche Prozesse und Systeme werden verändert? Zur Beantwortung dieser Frage haben wir 184 Berichte zu Projekten analysiert, die als "Transformationsprojekte" bezeichnet waren. Für die Analyse haben wir einen Kodierungsrahmen konzipiert und anhand dessen die Berichte mit einem hierarchischen Clustering-Verfahren in Themen gruppiert. Die Ergebnisse liefern Hinweise über die in der Praxis gesetzten Schwerpunkte und Prioritäten. Sie können
somit als Unterstützung für Unternehmen dienen, die ein Transformationsprojekt planen. Sie weisen zudem darauf hin, in welchen Bereichen eines Unternehmens Unterstützung durch wissenschaftlich erprobte Werkzeuge und Modelle nötig ist.
Development of a subject-oriented reference process model for the telecommunications industry
(2016)
Generally the usage of reference models can be structured top-down or bottom-up. The practical need of agile change and flexible organizational implementation requires a consistent mapping to an operational level. In this context, well-established reference process models are typically structured top-down. The subject-oriented Business Process Management (sBPM) offers a modeling concept that is structured bottom-up and concentrates on the process actors on an
operational level. This paper applies sBPM to the enhanced Telecom Operations Map (eTOM), a well-accepted reference process model in the telecommunications industry. The resulting design artifact is a concrete example for a combination of a bottom-up and top-down developed reference model. The results are evaluated and confirmed in practical context through the involvement of the industry body TMForum.
Zur Unterstützung des Transformationsbedarfs von Telekommunikationsunternehmen sind die Referenzmodelle des TM Forums in der Praxis weltweit anerkannt. Dabei findet jedoch meist eine losgelöste Nutzung für spezifische Einzelthemen statt. Daher führt dieser Artikel die bestehenden Inhalte in einer industriespezifischen, übergreifenden Referenzarchitektur zusammen. Der Fokus liegt auf den Ebenen Aufbauorganisation, Prozesse, Applikationen und Daten. Darüber hinaus werden inhaltliche Architekturdomänen zur Strukturierung angeboten. Die Referenzarchitektur ist hierarchisch aufgebaut und wird hier beispielhaft für ausgewählte, aggregierte Inhalte beschrieben. Als erste Evaluation wird die Anwendung der Referenzarchitektur in drei Praxisprojekten erläutert.
The telecommunications industry is currently going through a major transformation. In this context, the enhanced Telecom Operations Map (eTOM) is a domain-specific process reference model that is offered by the industry organization TM Forum. In practice, eTOM is well accepted and confirmed as de facto standard. It provides process definitions and process flows on different levels of detail. This article discusses the reference modeling of eTOM, i.e., the design, the resulting artifact, and its evaluation based on three project cases. The application of eTOM in three projects illustrates the design approach and concrete models on strategic and operational levels. The article follows the Design Science Research (DSR) paradigm. It contributes with concrete design artifacts to the transformational needs of the telecommunications industry and offers lessons-learned from a general DSR perspective.
Primäre Ziele des Internets der Dinge sind die Steuerung physischer Gegenstände aus der Distanz und das Erfassen von Informationen aus dem Umfeld dieser Gegenstände. Dazu werden Hardwarekomponenten in Gegenstände des täglichen Lebens und die Umwelt integriert. Mithilfe von Informations- und Kommunikationstechnologien entsteht hieraus das Internet der Dinge (Internet of Things, IoT). Vor einem Jahr wurde mit Narrowband Internet of Things (NB-IoT) eine Technologie die es ermöglicht, Hardwarekomponenten energieeffizient und unmittelbar über das Mobilfunknetz zu vernetzen. Gegenstände werden dadurch über große Reichweiten eigenständig kommunikationsfähig. Das IoT steht mit NB-IoT vor einem gestiegenen Nutzenpotenzial, da eine zunehmende Anzahl miteinander verbundener Gegenstände und der Austausch größerer Datenmengen realisierbar sind. Damit sind aus wirtschaftlicher Sicht neue, innovative Anwendungsfälle des IoT möglich, die auch bereits in der Praxis diskutiert werden. In diesem Beitrag wird anhand eines konkreten Anwendungsfalls untersucht, welche neuen Geschäfts- bzw. Partnermodelle durch die gemeinsame Nutzung von NB-IoT-Daten und Big Data-Technologien entstehen und welcher qualitative Mehrwert für die an einem Anwendungsfall beteiligten Stakeholder geschaffen wird. Dazu wird – einem konstruktionsorientierten Forschungsansatz folgend – ein Bewertungsrahmen zur qualitativen Wertschöpfungsanalyse von NB-IoT entwickelt, der u.a. auf der Schablone nach Cockburn und dem Business Model Canvas basiert. Anhand dieses Bewertungsrahmens wird ein Anwendungsfall untersucht, der in anonymisierter Form an konkrete Praxisprojekte angelehnt ist. Konkret wird ein Anwendungsfall betrachtet, der einen Fahrradverleih 2.0 basierend auf dem Einsatz von NB-IoT vorschlägt. Aus den Untersuchungsergebnissen gehen beispielsweise Erkenntnisse hervor, wie Geschäftsmodelle auf
Kritische Infrastrukturen sind primäre Ziele krimineller Hacker. Der Deutsche Bundestag reagierte darauf am 25. Juli 2015 mit einem Gesetz zur Verbesserung der Sicherheit von ITSystemen, dem IT-Sicherheitsgesetz. Dies verlangt von Betreibern kritischer Infrastrukturen, angemessene Mindeststandards für organisatorische und technische Sicherheit zu implementieren, um den Betrieb und die Verfügbarkeit dieser Infrastruktur zu gewährleisten. Telekommunikationsunternehmen sind einerseits von diesem Gesetz in besonderem Maße betroffen und verfügen andererseits mit dem Rahmenwerk enhanced Telecom Operations Map (eTOM) über ein international anerkanntes Referenzmodell zur Gestaltung von Geschäftsprozessen in dieser Branche. Da sämtliche Telekommunikationsunternehmen in Deutschland verpflichtet sind, das Gesetz innerhalb eines bestimmten Zeitrahmens zu implementieren, präsentiert dieser Beitrag einen Vorschlag zur Erweiterung von eTOM um die relevanten Anforderungen des deutschen IT-Sicherheitsgesetzes.
Momentan finden in vielen Branchen umfassende Veränderungen von Märkten und Wertschöpfungsketten statt, welche auch als Digitale Transformation bezeichnet werden. In diesem Zusammenhang wird das Internet der Dinge (Internet of Things, IoT) als ein wichtiger technischer Enabler der Veränderungen angesehen. Primäre Ziele des IoT sind die Steuerung physischer Gegen-stände aus der Distanz und das Erfassen von Informationen aus dem Umfeld dieser Gegenstände. Welche neuen Geschäfts-bzw. Partnermodelle entstehen durch die gemeinsame Nutzung von IoT-Daten und Big-Data-Technologien und welcher qualitative Mehrwert wird dadurch geschaffen? Als Antwort wird in diesem Beitrag ein Bewertungsrahmen zur qualitativen Wertschöpfungsanalyse von IoT vorgeschlagen. Anhand dieses Bewertungsrahmens wird ein Anwendungsfall untersucht, der in anonymisierter Form an konkrete Praxisprojekte angelehnt ist. Konkret wird ein Anwendungsfall betrachtet, der eine Abfallwirtschaft 2.0 basierend auf dem Einsatz von IoT vorschlägt. Aus den Untersuchungsergebnissen gehen beispielsweise Erkenntnisse hervor, wie Geschäftsmodelle auf Basis eines unentgeltlichen Informationsaustauschs durch IoT gestaltet werden können.
The potential of electronic markets in enabling innovative product bundles through flexible and sustainable partnerships is not yet fully exploited in the telecommunication industry. One reason is that bundling requires seamless de-assembling and re-assembling of business processes, whilst processes in telecommunication companies are often product-dependent and hard to virtualize. We propose a framework for the planning of the virtualization of processes, intended to assist the decision maker in prioritizing the processes to be virtualized: (a) we transfer the virtualization pre-requisites stated by the Process Virtualization Theory in the context of customer-oriented processes in the telecommunication industry and assess their importance in this context, (b) we derive IT-oriented requirements for the removal of virtualization barriers and highlight their demand on changes at different levels of the organization. We present a first evaluation of our approach in a case study and report on lessons learned and further steps to be performed.
As the potential of a next generation network (NGN) is recognised, telecommunication companies consider switching to it. Although the implementation of an NGN seems to be merely a modification of the network infrastructure, it may trigger or require changes in the whole company, because it builds upon the separation between service and transport, a flexible bundling of services to products and the streamlining of the IT infrastructure. We propose a holistic framework, structured into the layers ‘strategy’, ‘processes’ and ‘information systems’ and incorporate into each layer all concepts necessary for the implementation of an NGN, as well as the alignment of these concepts. As a first proof-of-concept for our framework we have performed a case study on the introduction of NGN in a large telecommunication company; we show that our framework captures all topics that are affected by an NGN implementation.
Der Telekommunikationsmarkt erfährt substanzielle Veränderungen. Neue Geschäftsmodelle, innovative Dienstleistungen und Technologien erfordern Reengineering, Transformation und Prozessstandardisierung. Mit der Enhanced Telecom Operation Map (eTOM) bietet das TM Forum ein international anerkanntes de facto Referenz-Prozess-Framework basierend auf spezifischen Anforderungen und Ausprägungen der Telekommunikationsindustrie an. Allerdings enthält dieses Referenz-Framework nur eine hierarchische Sammlung von Prozessen auf unterschiedlichen Abstraktionsebenen. Eine Kontrollsicht verstanden als sequenzielle Anordnung von Aktivitäten und daraus resultierend ein realer Prozessablauf fehlt ebenso wie eine Ende-zu-Ende-Sicht auf den Kunden. In diesem Artikel erweitern wir das eTOM-Referenzmodell durch Referenzprozessabläufe, in welchen wir das Wissen über Prozesse in Telekommunikationsunternehmen abstrahieren und generalisieren. Durch die Referenzprozessabläufe werden Unternehmen bei dem strukturierten und transparenten (Re-)Design ihrer Prozesse unterstützt. Wir demonstrieren die Anwendbarkeit und Nützlichkeit unserer Referenzprozessabläufe in zwei Fallstudien und evaluieren diese anhand von Kriterien für die Bewertung von Referenzmodellen. Die Referenzprozessabläufe wurden vom TM Forum in den Standard aufgenommen und als Teil von eTOM Version 9 veröffentlicht. Darüber hinaus diskutieren wir die Komponenten unseres Ansatzes, die auch außerhalb der Telekommunikationsindustrie angewandt werden können.
Das anhaltende Wachstum wissenschaftlicher Veröffentlichungen wirft die Fragestellung auf, wie Literaturana-lysen im Rahmen von Forschungsprozessen digitalisiert und somit produktiver realisiert werden können. Insbesondere in informationstechnischen Fachgebieten ist die Forschungspraxis durch ein rasant wachsendes Publikationsaufkommen gekennzeichnet. Infolgedessen bietet sich der Einsatz von Methoden der Textanalyse (Text Analytics) an, die Textdaten automatisch vorbereiten und verarbeiten können. Erkenntnisse entstehen dabei aus Analysen von Wortarten und Subgruppen, Korrelations- sowie Zeitreihenanalysen. Dieser Beitrag stellt die Konzeption und Realisierung eines Prototypen vor, mit dem Anwender bibliographische Daten aus der etablierten Literaturdatenbank EBSCO Discovery Service mithilfe textanalytischer Methoden erschließen können. Der Prototyp basiert auf dem Analysesystem IBM Watson Explorer, das Hochschulen lizenzkostenfrei zur Verfügung steht. Potenzielle Adressaten des Prototypen sind Forschungseinrichtungen, Beratungsunternehmen sowie Entscheidungsträger in Politik und Unternehmenspraxis.
Im Rahmen der Digitalisierung ist die zunehmende Automatisierung von bisher manuellen Prozessschritten ein Aspekt, der massive Auswirkungen auf die zukünftige Arbeitswelt haben wird. In diesem Kontext werden an den Einsatz von Softwarerobotern zur Prozessautomatisierung hohe Erwartungen geknüpft. Bei den Implementierungsansätzen wird die Diskussion aktuell insbesondere durch Robotic Process Automation (RPA) und Chatbots geprägt. Beide Ansätze verfolgen das gemeinsame Ziel einer 1:1-Automatisierung von menschlichen Handlungen und dadurch ein direktes Ersetzen von Mitarbeitern durch Maschinen. Bei RPA werden Prozesse durch Softwareroboter erlernt und automatisiert ausgeführt. Dabei emulieren RPA-Roboter die Eingaben auf der bestehenden Präsentationsschicht, so dass keine Änderungen an vorhandenen Anwendungssystemen notwendig sind. Am Markt werden bereits unterschiedliche RPA-Lösungen als Softwareprodukte angeboten. Durch Chatbots werden Ein- und Ausgaben von Anwendungssystemen über natürliche Sprache realisiert. Dadurch ist die Automatisierung von unternehmensexterner Kommunikation (z. B. mit Kunden) aber auch von unternehmensinternen Assistenztätigkeiten möglich. Der Beitrag diskutiert die Auswirkungen von Softwarerobotern auf die Arbeitswelt anhand von Anwendungsbeispielen und erläutert die unternehmensindividuelle Entscheidung über den Einsatz von Softwarerobotern anhand von Effektivitäts- und Effizienzzielen.
Angesichts des anhaltenden Wachstums wissenschaftlicher Veröffentlichungen werden Instrumente benötigt, um Literaturanalysen durch Digitalisierung produktiver zu gestalten. Dieser Beitrag stellt einen Ansatz vor, der bibliographische Daten aus der Literaturdatenbank EBSCO Discovery Service mithilfe von Text-Analytics-Methoden erschließt. Die Lösung basiert auf dem Textanalysesystem IBM Watson Explorer und eignet sich für explorative Literaturanalysen, um beispielsweise den Status quo emergierender Technologiefelder in der Literatur zu reflektieren. Die generierten Ergebnisse sind in den Kontext der zunehmenden Werkzeugunterstützung des Literaturrechercheprozesses einzuordnen und können für intra- sowie interinstitutionelle Wissenstransferprozesse in Forschungs- und Beratungskontexten genutzt werden.
Am Beispiel der Telekommunikationsindustrie zeigt der Beitrag eine konkrete Ausgestaltung anwendungsorientierter Forschung, die sowohl für die Praxis als auch für die Wissenschaft nutzen- und erkenntnisbringend ist. Forschungsgegenstand sind die Referenzmodelle des Industriegremiums TM Forum, die von vielen Telekommunikationsunternehmen zur Transformation ihrer Strukturen und Systeme genutzt werden. Es wird die langjährige Forschungstätigkeit bei der Weiterentwicklung und Anwendung dieser Referenzmodelle beschrieben. Dabei wird ein konsequent gestaltungsorientierter Forschungsansatz verfolgt. Das Zusammenspiel aus kontinuierlicher Weiterentwicklung in Zusammenarbeit mit einem Industriegremium und der Anwendung in vielfältigen Praxisprojekten führt zu einer erfolgreichen Symbiose aus praktischer Nutzengenerierung sowie wissenschaftlichem Erkenntnisgewinn. Der Beitrag stellt den gewählten Forschungsansatz anhand konkreter Beispiele vor. Darauf basierend werden Empfehlungen und Herausforderungen für eine gestaltungs- und praxisorientierte Forschung diskutiert.
The continuing growth of scientific publications raises the question how research processes can be digitalized and thus realized more productively. Especially in information technology fields, research practice is characterized by a rapidly growing volume of publications. For the search process various information systems exist. However, the analysis of the published content is still a highly manual task. Therefore, we propose a text analytics system that allows a fully digitalized analysis of literature sources. We have realized a prototype by using EBSCO Discovery Service in combination with IBM Watson Explorer and demonstrated the results in real-life research projects. Potential addressees are research institutions, consulting firms, and decision-makers in politics and business practice.
The initial idea of Robotic Process Automation (RPA) is the automation of business processes through the presentation layer of existing application systems. For this simple emulation of user input and output by software robots, no changes of the systems and architecture is required. However, considering strategic aspects of aligning business and technology on an enterprise level as well as the growing capabilities of RPA driven by artificial intelligence, interrelations between RPA and Enterprise Architecture (EA) become visible and pose new questions. In this paper we discuss the relationship between RPA and EA in terms of perspectives and implications. As workin- progress we focus on identifying new questions and research opportunities related to RPA and EA.
The initial idea of Robotic Process Automation (RPA) is the automation of business processes through a simple emulation of user input and output by software robots. Hence, it can be assumed that no changes of the used software systems and existing Enterprise Architecture (EA) is
required. In this short, practical paper we discuss this assumption based on a real-life implementation project. We show that a successful RPA implementation might require architectural work during analysis, implementation, and migration. As practical paper we focus on exemplary lessons-learned and new questions related to RPA and EA.
Digital twins enable the modeling and simulation of real-world entities (objects, processes or systems), resulting in improvements in the associated value chains. The emerging field of quantum computing holds tremendous promise forevolving this virtualization towards Quantum (Digital) Twins (QDT) and ultimately Quantum Twins (QT). The quantum (digital) twin concept is not a contradiction in terms - but instead describes a hybrid approach that can be implemented using the technologies available today by combining classicalcomputing and digital twin concepts with quantum processing. This paperpresents the status quo of research and practice on quantum (digital) twins. It alsodiscuses their potential to create competitive advantage through real-timesimulation of highly complex, interconnected entities that helps companies better
address changes in their environment and differentiate their products andservices.
In this paper research activities developed within the FutureCom project are presented. The project, funded by the European Metrology Programme for Innovation and Research (EMPIR), aims at evaluating and characterizing: (i) active devices, (ii) signal- and power integrity of field programmable gate array (FPGA) circuits, (iii) operational performance of electronic circuits in real-world and harsh environments (e.g. below and above ambient temperatures and at different levels of humidity), (iv) passive inter-modulation (PIM) in communication systems considering different values of temperature and humidity corresponding to the typical operating conditions that we can experience in real-world scenarios. An overview of the FutureCom project is provided here, then the research activities are described.
Das Ziel des INTERREG-Projektes „SHAREuregio“ (FKZ: 34.EFRE-0300134)
ist es, grenzüberschreitende Mobilität in der Euregio Rhein-Maas-Nord zu
ermöglichen und zu fördern. Dazu soll ein elektromobiles Car- und Bikesharing-
System entwickelt und in der Stadt Mönchengladbach, im Kreis Viersen
sowie in den Gemeinden Roermond und Venlo (beide NL) zusammen mit den
Partnern Wirtschaftsförderung Mönchengladbach, Wirtschaftsförderung für den
Kreis Viersen, NEW AG, Goodmoovs (NL), Greenflux (NL) und der FH Aachen
implementiert werden. Zunächst richtet sich das Angebot, bestehend aus 40
Elektroautos und 40 Elektrofahrrädern, an Unternehmen und wird nach einer
Erprobungsphase, mit einer größeren Anzahl an Fahrzeugen, auch für Privatpersonen
verfügbar gemacht werden. Die Fahrzeuge stehen bei den jeweiligen
Anwendungspartnern in Deutschland und den Niederlanden.
Im Rahmen dieses Projektes hat die FH Aachen „FlexSHARE“ entwickelt
– ein methodisches Framework zur innovativen Gestaltung urbaner Sharing-
Angebote. Das Framework ermöglicht es, anhand von messbaren Kenngrößen,
bedarfsgerechte und auf die Region abgestimmte Sharing-Systeme zu entwickeln.
Many of today’s factors make software development more and more complex, such as time pressure, new technologies, IT security risks, et cetera. Thus, a good preparation of current as well as future software developers in terms of a good software engineering education becomes progressively important. As current research shows, Competence Developing Games (CDGs) and Serious Games can offer a potential solution.
This paper identifies the necessary requirements for CDGs to be conducive in principle, but especially in software engineering (SE) education. For this purpose, the current state of research was summarized in the context of a literature review. Afterwards, some of the identified requirements as well as some additional requirements were evaluated by a survey in terms of subjective relevance.
This paper covers the use of the magnetic Wiegand effect to design an innovative incremental encoder. First, a theoretical design is given, followed by an estimation of the achievable accuracy and an optimization in open-loop operation.
Finally, a successful experimental verification is presented. For this purpose, a permanent magnet synchronous machine is controlled in a field-oriented manner, using the angle information of the prototype.
Upcoming gasoline engines should run with a larger number of fuels beginning from petrol over methanol up to gas by a wide range of compression ratios and a homogeneous charge. In this article, the microwave (MW) spark plug, based on a high-speed frequency hopping system, is introduced as a solution, which can support a nitrogen compression ratio up to 1:39 in a chamber and more. First, an overview of the high-speed frequency hopping MW ignition and operation system as well as the large number of applications are presented. Both gives an understanding of this new base technology for MW plasma generation. Focus of the theoretical part is the explanation of the internal construction of the spark plug, on the achievable of the high voltage generation as well as the high efficiency to hold the plasma. In detail, the development process starting with circuit simulations and ending with the numerical multiphysics field simulations is described. The concept is evaluated with a reference prototype covering the frequency range between 2.40 and 2.48 GHz and working over a large power range from 20 to 200 W. A larger number of different measurements starting by vector hot-S11 measurements and ending by combined working scenarios out of hot temperature, high pressure and charge motion are winding up the article. The limits for the successful pressure tests were given by the pressure chamber. Pressures ranged from 1 to 39 bar and charge motion up to 25 m/s as well as temperatures from 30◦ to 125◦.
his report summarizes the results of a workshop on Groupware related task design which took place at the International Conference on Supporting Group Work Group'99, Arizona, from 14 th to 17 th November 1999.
The workshop was addressed to people from different
viewpoints, backgrounds, and domains:
- Researchers dealing with questions of task analysis
and task modeling for Groupware application from an
academic point of view. They may contribute modelbased design
approaches or theoretically oriented
work
- Practitioners with experience in the design and
everyday use of groupware systems. They might refer
to the practical side of the topic: "real" tasks, "real"
problems, "real" users, etc.
Cybersecurity of Industrial Control Systems (ICS) is an important issue, as ICS incidents may have a direct impact on safety of people or the environment. At the same time the awareness and knowledge about cybersecurity, particularly in the context of ICS, is alarmingly low. Industrial honeypots offer a cheap and easy to implement way to raise cybersecurity awareness and to educate ICS staff about typical attack patterns. When integrated in a productive network, industrial honeypots may not only reveal attackers early but may also distract them from the actual important systems of the network. Implementing multiple honeypots as a honeynet, the systems can be used to emulate or simulate a whole Industrial Control System. This paper describes a network of honeypots emulating HTTP, SNMP, S7communication and the Modbus protocol using Conpot, IMUNES and SNAP7. The nodes mimic SIMATIC S7 programmable logic controllers (PLCs) which are widely used across the globe. The deployed honeypots' features will be compared with the features of real SIMATIC S7 PLCs. Furthermore, the honeynet has been made publicly available for ten days and occurring cyberattacks have been analyzed
Daten und Informationen sind die wichtigsten Ressourcen vieler Unternehmen und müssen daher entsprechend geschützt werden. Getrieben durch die erhöhte Vernetzung von Informationstechnologie, die höhere Offenheit infolge datengetriebener Dienstleistungen und eine starke Zunahme an Datenquellen, rücken die Gefahren von Informationsdiebstahl, -manipulation und -verlust in den Fokus von produzierenden Unternehmen. Auf dem Weg zum lern- und wandlungsfähigen Unternehmen kann dies zu einem großen Hindernis werden, da einerseits zu hohe Sicherheitsanforderungen neue Entwicklungen beschränken, andererseits wegen des Mangels an ausreichenden Informationssicherheitskonzepten Unternehmen weniger Innovationen wagen. Deshalb bedarf es individuell angepasster Konzepte für die Bereiche IT-Security, IT-Safety und Datenschutz für vernetzte Produkte, Produktion und Arbeitsplätze. Bei der Entwicklung und Durchsetzung dieser Konzepte steht der Faktor Mensch im Zentrum aller Überlegungen.
In diesem Kapitel wird dargestellt, wie der Faktor Mensch bei der Erstellung von Informationssicherheitskonzepten in verschiedenen Phasen zu beachten ist. Beginnend mit der Integration von Informationssystemen und damit verbundenen Sicherheitsmaßnahmen, über die Administration, bis hin zur Anwendung durch den Endnutzer, werden Methoden beschrieben, die den Menschen, verbunden mit seinem Mehrwert wie auch den Risiken, einschließen. Dabei werden sowohl Grundlagen aufgezeigt als auch Konzepte vorgestellt, mit denen Entscheider in der Unternehmens-IT Leitlinien für die Informationssicherheit festlegen können.
Die Nutzung von Prozessmodellierungsmethoden oder - werkzeugen kann erheblichen Einfluss auf die Effektivität von Prozessen haben. Das gilt insbesondere für Situationen, in denen Personen unter Stress stehen oder ungeübt sind. In diesen Fällen geben Prozessmodelle konkrete Empfehlungen, nach denen sich die handelnden Personen richten könnten. In Experimenten mit der Business-Simulation Apollo 13 haben wir den Effekt eines Einsatzes von Prozessmodellierungsmethoden und -werkzeugen untersucht. Bereits bekannte Theorien (z.B. über geeignete Verhältnisse von Kommunikationsinhalten) konnten bestätigt werden. Darüber hinaus haben wir eine besondere Bedeutung der Übertragbarkeit von Prozessmodellen in konkrete Handlungen identifiziert.
This paper introduces a Competence Developing Game (CDG) for the purpose of a cybersecurity awareness training for businesses. The target audience will be discussed in detail to understand their requirements. It will be explained why and how a mix of business simulation and serious game meets these stakeholder requirements. It will be shown that a tablet and touchscreen based approach is the most suitable solution. In addition, an empirical study will be briefly presented. The study was carried out to examine how an interaction system for a 3D-tablet based CDG has to be designed, to be manageable for non-game experienced employees. Furthermore, it will be explained which serious content is necessary for a Cybersecurity awareness training CDG and how this content is wrapped in the game
Competence Developing Games (CDGs) are a new concept of how to think about games with serious intentions. In order to emphasize on this topic, a new framework has been developed. It basically relies on learning and motivation theories. This ‘motivational Competence Developing Game Framework’ demonstrates how it is possible to use these theories in a CDG development process. The theoretical derivation and use of the framework is explained in this paper.
During the development of a Competence Developing Game’s (CDG) story it is indispensable to understand the target audience. Thereby, CDGs stories represent more than just the plot. The Story is about the
Setting, the Characters and the Plot. As a toolkit to support the
development of such a story, this paper introduces the UserFocused Storybuilding (short UFoS) Framework for CDGs. The Framework and its utilization will be explained, followed by a description of its development and derivation, including an empirical study. In addition, to simplify the Framework use regarding the CDG’s target audience, a new concept of Nine Psychographic Player Types will be explained. This concept of Player Types provides an approach to handle the differences in between players during the UFoS Framework use. Thereby,
this article presents a unique approach to the development of
target group-differentiated CDGs stories.
Es existieren verschiedenste Arten von Spielen, die versuchen, die Motivation einer Spielsituation in einen ernsten Kontext zu überführen. In diesem Artikel wird der Überbegriff „Competence Developing Games“ definiert und anhand von Beispielen erläutert. Dafür werden Erkennungskriterien vorgestellt, entsprechende Spieltypen erläutert und eine Zuordnung durch-geführt.
In diesem Paper wird die Entwicklung und Evaluation eines grafischen Regeleditors für das Erstellen von „Smart Living Environments“-Services vorgestellt. Dafür werden zunächst die Deduktion und Implementierung des grafischen Regeleditors erläutert. Anschließend wird eine Probandenstudie vorgestellt, in welcher der Mehrwert bezogen auf die Aspekte Zeit, Fehleranfälligkeit und Gebrauchstauglichkeit festgestellt wird.
Smart-Living-Services nur gegen Daten? Process-Mining als Möglichkeit zur Steigerung der Akzeptanz!
(2019)
Seit Jahren etablieren sich Technologien in unserem Alltag, die mit Hilfe von smarten Komponenten neue Services und Vernetzungsmöglichkeiten schaffen. Dieses Paper beschreibt die Ergebnisse einer Studie, die die Akzeptanz von IoT-gestützten, smarten Services im privaten Umfeld untersucht. Dabei wird eine zentrale Datenverarbeitung mit automatisierter Erstellung smarter Services der dezentralen Datenverarbeitung mit manueller Serviceerstellung in sieben Kategorien gegenübergestellt. Die Auswertung der Studie legt die Forschungsfrage nahe, ob das Nutzerverhalten im Kontext Smart Living nicht auch mit einem
dezentralen Lösungsansatz, und somit unabhängig von großen Unternehmen, analysiert werden kann. Hierfür wird im zweiten Teil des Papers die Anwendbarkeit von Process-Mining im Bereich Smart Living untersucht und prototypisch getestet.
Obwohl es eine Vielzahl von Einführungskonzepten für ITSM gibt, hat sich bisher keines dieser Konzepte auf breiter Linie durchgesetzt. Das gilt in erhöhtem Maße für ITSM-Einführungskonzepte für KMU, wohl nicht zuletzt aufgrund der Tatsache, dass der Mehrwert von ITSM für KMU aufgrund der geringeren Größe der IT-Organisationen nur entsprechend schwieriger generiert werden kann.
Mit diesem Beitrag wird ein Einführungskonzept für ITSM in KMU systematisch hergeleitet. Dafür wurden zunächst die Treiber und Barrieren von ITSM untersucht, um daraus ein umfassendes Wirkmodell zu entwickeln. Da mit diesem Wirkungsmodell die Einflussfaktoren auf den Erfolg von ITSM in KMU deutlich werden, konnte auf dieser Basis ein Einführungskonzept abgeleitet werden, welches insbesondere die positiven Effekte unterstützt bzw.
verstärkt.
Die steigende Popularität von mobilen Endgeräten im privaten und geschäftlichen Umfeld geht mit einem Anstieg an Sicherheitslücken und somit potentiellen Angriffsflächen einher. Als ein Element der technischen und organisatorischen Maßnahmen zum Schutz eines Netzwerkes können Monitoring-Apps dienen, die unerwünschtes Verhalten und Angriffe erkennen. Die automatisierte Überwachung von Endgeräten ist jedoch rechtlich und ethisch komplex. Dies in Kombination mit einer hohen Sensibilität der Nutzer und Nutzerinnen dieser Geräte in Bezug auf Privatsphäre, kann zu einer geringen Akzeptanz und Compliance führen. Eine datenschutzrechtlich und ethisch einwandfreie Konzeption solcher Apps bereits im Designprozess führt zu höherer Akzeptanz und verbessert so die Effizienz. Diese Analyse beschreibt Möglichkeiten zur Umsetzung.
In this article we describe an Internet-of-Things sensing device with a wireless interface which is powered by the oftenoverlooked harvesting method of the Wiegand effect. The sensor can determine position, temperature or other resistively measurable quantities and can transmit the data via an ultra-low power ultra-wideband (UWB) data transmitter. With this approach we can energy-self-sufficiently acquire, process, and wirelessly transmit data in a pulsed operation. A proof-of-concept system was built up to prove the feasibility of the approach. The energy consumption of the system is analyzed and traced back in detail to the individual components, compared to the generated energy and processed to identify further optimization options. Based on the proof-of-concept, an application demonstrator was developed. Finally, we point out possible use cases.
In this paper we investigate the use of deep neural networks for 3D object detection in uncommon, unstructured environments such as in an open-pit mine. While neural nets are frequently used for object detection in regular autonomous driving applications, more unusual driving scenarios aside street traffic pose additional challenges. For one, the collection of appropriate data sets to train the networks is an issue. For another, testing the performance of trained networks often requires tailored integration with the particular domain as well. While there exist different solutions for these problems in regular autonomous driving, there are only very few approaches that work for special domains just as well. We address both the challenges above in this work. First, we discuss two possible ways of acquiring data for training and evaluation. That is, we evaluate a semi-automated annotation of recorded LIDAR data and we examine synthetic data generation. Using these datasets we train and test different deep neural network for the task of object detection. Second, we propose a possible integration of a ROS2 detector module for an autonomous driving platform. Finally, we present the performance of three state-of-the-art deep neural networks in the domain of 3D object detection on a synthetic dataset and a smaller one containing a characteristic object from an open-pit mine.