Refine
Year of publication
Institute
- Fachbereich Elektrotechnik und Informationstechnik (441) (remove)
Has Fulltext
- no (441) (remove)
Language
- German (441) (remove)
Document Type
- Article (215)
- Book (90)
- Conference Proceeding (59)
- Part of a Book (28)
- Patent (15)
- Report (9)
- Other (8)
- Contribution to a Periodical (6)
- Doctoral Thesis (5)
- Working Paper (4)
Keywords
- Digitale Transformation (3)
- Digitalisierung (3)
- Literaturanalyse (3)
- Referenzmodellierung (3)
- Forschungsprozess (2)
- Mathematik (2)
- Prozessautomatisierung (2)
- Text Analytics (2)
- Anomalieerkennung (1)
- Antennen (1)
In der Vergangenheit basierten große Systemintegrationsprojekte in der Regel auf Individualentwicklungen für einzelne Kunden. Getrieben durch Kostendruck steigt aber der Bedarf nach standardisierten Lösungen, die gleichzeitig die individuellen Anforderungen des jeweiligen Umfelds berücksichtigen. T-Systems GEI GmbH wird beiden Anforderungen mit Produktkerneln gerecht. Neben den technischen Aspekten der Kernelentwicklung spielen besonders organisatorische Aspekte eine Rolle, um Kernel effizient und qualitativ hochwertig zu entwickeln, ohne deren Funktionalitäten ins Uferlose wachsen zu lassen. Umgesetzt hat T-Systems dieses Konzept für Flughafeninformationssysteme. Damit kann dem wachsenden Bedarf der Flughafenbetreiber nach einer effizienten und kostengünstigen Softwarelösung zur Unterstützung Ihrer Geschäftsprozesse entsprochen werden.
Der Erfolg eines Softwarenentwicklungsprojektes insbesondere eines Systemintegrationsprojektes wird mit der Erfüllung des „Teufelsdreiecks“, „In-Time“, „In-Budget“, „In-Quality“ gemessen. Hierzu ist die Kenntnis der Software- und Prozessqualität essenziell, um die Einhaltung der Qualitätskriterien festzustellen, aber auch, um eine Vorhersage hinsichtlich Termin- und Budgettreue zu treffen. Zu diesem Zweck wurde in der T-Systems Systems Integration ein System aus verschiedenen Key Performance Indikatoren entworfen und in der Organisation implementiert, das genau das leistet und die Kriterien für CMMI Level 3 erfüllt.
Wiegand-Modul
(2022)
Ein Wiegand-Modul (110;210;310) umfassend- eine Sensorspule (112;212;312),- einen ersten Wiegand-Draht (116a;216a;316a), der zumindest teilweise innerhalb der Sensorspule (112;212;312) angeordnet ist, und- einen zweiten Wiegand-Draht (116b;216b;316b), der zumindest teilweise innerhalb der Sensorspule (112;212;312) angeordnet ist und sich im Wesentlichen parallel zu dem ersten Wiegand-Draht (116a;216a;316a) erstreckt, ist bekannt.Um eine effiziente Ausnutzung der durch die Ummagnetisierung der Wiegand-Drähte (116a,116b;216a,216b;316a,316b) in die Sensorspule (112;212;312) induzierten elektrischen Energie zu ermöglichen, sind der erste Wiegand-Draht (116a;216a;316a) und der zweite Wiegand-Draht (116b;216b;316b) bezogen auf eine axiale Richtung der Sensorspule (112;212;312) versetzt zueinander angeordnet.
Dieser Beitrag stellt einen Bewertungsrahmen für Smart Services vor, der auf dem Konzept vollständiger Finanzpläne (VOFI) basiert. Zunächst wird eine IoT-Architektur für Smart Services eingeführt, die die Grundlage für deren Betrachtung aus Sicht der Unternehmensplanung liefert. Hierauf aufbauend wird ein Bewertungsrahmen für die finanzplanorientierte Wirtschaftlichkeitsbewertung von Smart Services geschaffen, mit dem die relevanten Zahlungsfolgen differenziert erfasst werden. Mithilfe des entwickelten VOFI-Systems wird anschließend aufgezeigt, wie mithilfe einer Risikoanalyse die Unsicherheit von Modellparametern berücksichtigt werden kann.
Prozessorientierte Messung der Customer Experience am Beispiel der Telekommunikationsindustrie
(2018)
Hohe Wettbewerbsintensität und gestiegene Kundenanforderungen erfordern bei Telekommunikationsunternehmen eine aktive Gestaltung der Customer Experience (CX). Ein wichtiger Aspekt dabei ist die CX-Messung. Traditionelle Zufriedenheitsmessungen sind oft nicht ausreichend, um die Kundenerfahrung in komplexen Prozessen vollständig zu erfassen. Daher wird in diesem Kapitel eine prozessübergreifende Referenzlösung zur CX-Messung am Beispiel der Telekommunikationsindustrie vorgeschlagen. Ausgangspunkt ist ein industriespezifisches Prozessmodell, das sich an dem Referenzmodell eTOM orientiert. Dieses wird um Messpunkte erweitert, die Schwachstellen in Bezug auf die CX identifizieren. Für die erkannten Schwachstellen werden über eine Referenzmatrix mögliche Auslöser abgeleitet und anhand von typischen Geschäftsfallmengen bewertet. Somit ist eine direkte Zuordnung und Erfolgsmessung konkreter Maßnahmen zur Behebung der Schwachstellen möglich. Die so entwickelte Referenzlösung wurde im Projekt K1 bei der Deutschen Telekom erfolgreich umgesetzt. Details zur Umsetzung werden als Fallstudien dargestellt.
Nutzen und Rahmenbedingungen 5 informationsgetriebener Geschäftsmodelle des Internets der Dinge
(2018)
Im Kontext der zunehmenden Digitalisierung wird das Internet der Dinge (englisch: Internet of Things, IoT) als ein technologischer Treiber angesehen, durch den komplett neue Geschäftsmodelle im Zusammenspiel unterschiedlicher Akteure entstehen können. Identifizierte Schlüsselakteure sind unter anderem traditionelle Industrieunternehmen, Kommunen und Telekommunikationsunternehmen. Letztere sorgen mit der Bereitstellung von Konnektivität dafür, dass kleine Geräte mit winzigen Batterien nahezu überall und direkt an das Internet angebunden werden können. Es sind schon viele IoT-Anwendungsfälle auf dem Markt, die eine Vereinfachung für Endkunden darstellen, wie beispielsweise Philips Hue Tap. Neben Geschäftsmodellen basierend auf Konnektivität besteht ein großes Potenzial für informationsgetriebene Geschäftsmodelle, die bestehende Geschäftsmodelle unterstützen sowie weiterentwickeln können. Ein Beispiel dafür ist der IoT-Anwendungsfall Park and Joy der Deutschen Telekom AG, bei dem Parkplätze mithilfe von Sensoren vernetzt und Autofahrer in Echtzeit über verfügbare Parkplätze informiert werden. Informationsgetriebene Geschäftsmodelle können auf Daten aufsetzen, die in IoT-Anwendungsfällen erzeugt werden. Zum Beispiel kann ein Telekommunikationsunternehmen Mehrwert schöpfen, indem es aus Daten entscheidungsrelevantere Informationen – sogenannte Insights – ableitet, die zur Steigerung der Entscheidungsagilität genutzt werden. Außerdem können Insights monetarisiert werden. Die Monetarisierung von Insights kann nur nachhaltig stattfinden, wenn sorgfältig gehandelt wird und Rahmenbedingungen berücksichtigt werden. In diesem Kapitel wird das Konzept informationsgetriebener Geschäftsmodelle erläutert und anhand des konkreten Anwendungsfalls Park and Joy verdeutlicht. Darüber hinaus werden Nutzen, Risiken und Rahmenbedingungen diskutiert.
Im Rahmen der digitalen Transformation werden innovative Technologiekonzepte, wie z. B. das Internet der Dinge und Cloud Computing als Treiber für weitreichende Veränderungen von Organisationen und Geschäftsmodellen angesehen. In diesem Kontext ist Robotic Process Automation (RPA) ein neuartiger Ansatz zur Prozessautomatisierung, bei dem manuelle Tätigkeiten durch sogenannte Softwareroboter erlernt und automatisiert ausgeführt werden. Dabei emulieren Softwareroboter die Eingaben auf der bestehenden Präsentationsschicht, so dass keine Änderungen an vorhandenen Anwendungssystemen notwendig sind. Die innovative Idee ist die Transformation der bestehenden Prozessausführung von manuell zu digital, was RPA von traditionellen Ansätzen des Business Process Managements (BPM) unterscheidet, bei denen z. B. prozessgetriebene
Anpassungen auf Ebene der Geschäftslogik notwendig sind. Am Markt werden bereits unterschiedliche RPA-Lösungen als Softwareprodukte angeboten. Gerade bei operativen Prozessen mit sich wiederholenden Verarbeitungsschritten in unterschiedlichen Anwendungssystemen sind gute Ergebnisse durch RPA dokumentiert, wie z. B. die Automatisierung von 35 % der Backoffice-Prozesse bei Telefonica. Durch den vergleichsweise niedrigen Implementierungsaufwand verbunden mit einem hohen Automatisierungspotenzial ist in der Praxis (z. B. Banken, Telekommunikation, Energieversorgung) ein hohes Interesse an RPA vorhanden. Der Beitrag diskutiert RPA als innovativen Ansatz zur
Prozessdigitalisierung und gibt konkrete Handlungsempfehlungen für die Praxis. Dazu wird zwischen modellgetriebenen und selbstlernenden Ansätzen unterschieden. Anhand von generellen Architekturen von RPA-Systemen werden Anwendungsszenarien sowie deren Automatisierungspotenziale, aber auch Einschränkungen, diskutiert. Es folgt ein strukturierter Marktüberblick ausgewählter RPA-Produkte. Anhand von drei konkreten Anwendungsbeispielen wird die Nutzung von RPA in der Praxis verdeutlicht.
In der Diskussion über die Digitalisierung der Forschung spielt die Frage nach der optimalen IT-Unterstützung für Forschende eine wichtige Rolle. Forschende können heute an ihren Hochschulen bzw. Wissenschaftseinrichtungen auf ein breites Angebot interner IT-Dienstleistungen zurückgreifen, das auch kooperative IT-Dienste umfasst, die von mehreren Institutionen in Zusammenarbeit bereitgestellt werden. Außerhalb der eigenen Organisation und des weiteren Verbunds hat sich im Internet zudem ein breites externes Angebot an innovativen, häufig kostenlos nutzbaren Onlinediensten entwickelt. Neben horizontalen Onlinediensten, die sich prinzipiell an jeden Internetnutzer richten (bspw. Dropbox, Twitter, WhatsApp), nimmt auch die Zahl von vertikalen Diensten für wissenschaftliche bzw. Forschungszwecke immer weiter zu (bspw. GoogleScholar, ResearchGate, figshare). Für Forschende eröffnen sich damit vielfältige neue Möglichkeiten, ihren individuellen Forschungsprozess durch digitale Werkzeuge zu verbessern. Aufgrund rechtlicher, technischer und personeller Restriktionen können jedoch interne Dienstleister bei der Identifizierung, Auswahl und Nutzung externer Onlinedienste nur wenig Unterstützung leisten. Aus einer serviceorientierten Perspektive stehen Forschende zunehmend vor dem Problem, wie sich heterogene IT-Dienste interner und externer Anbieter in den eigenen Forschungsprozess integrieren lassen. Als Lösungsansatz skizziert das Kapitel das Konzept eines persönlichen Forschungsinformationssystems
nach Gesichtspunkten eines digitalen Servicesystems.
Einfluss von Künstlicher Intelligenz auf Customer Journeys am Beispiel von intelligentem Parken
(2021)
Im Konsumentenmarkt entstehen vermehrt neue Anwendungen von Künstlicher
Intelligenz (KI). Zunehmend drängen auch Geräte und Dienste in den Markt, die
eigenständig über das Internet kommunizieren. Dadurch können diese Geräte und
Dienste mit neuartigen KI-basierten Diensten verbessert werden. Solche Dienste
können die Art und Weise beeinflussen, wie Kunden kommerzielle Entscheidungen
treffen und somit das Kundenerlebnis maßgeblich verändern. Der Einfluss von KI
auf kommerzielle Interaktionen wurde bisher noch nicht umfassend untersucht.
Basierend auf einem Framework, welches einen ersten Überblick über die Effekte
von KI auf kommerzielle Interaktionen gibt, wird in diesem Kapitel der Einfluss von KI auf Customer Journeys am konkreten Anwendungsfall des intelligenten Parkens analysiert. Die daraus gewonnenen Erkenntnisse können in der Praxis als Grundlage
genutzt werden, um das Potenzial von KI zu verstehen und bei der Gestaltung eigener Customer Journeys umzusetzen.
Unternehmen sind in der Regel überzeugt, dass sie die Bedürfnisse ihrer Kunden in den Mittelpunkt stellen. Aber in der direkten Interaktion mit dem Kunden zeigen sie häufig Schwächen. Der folgende Beitrag illustriert, wie durch eine konsequente Ausrichtung der Wertschöpfungsprozesse auf die zentralen Kundenbedürfnisse ein Dreifacheffekt erzielt werden kann: Nachhaltig erhöhte Kundenzufriedenheit, gesteigerte Effizienz und eine Differenzierung im Wettbewerb.
Kundenanforderungen an Netzwerke haben sich in den vergangenen Jahren stark verändert. Mit NFV und SDN sind Unternehmen technisch in der Lage, diesen gerecht zu werden. Die Provider stehen jedoch vor großen Herausforderungen: Insbesondere Produkte und Prozesse müssen angepasst und agiler werden, um die Stärken von NFV und SDN zum Kundenvorteil auszuspielen.
Die Durchführung einer systematischen Literaturrecherche ist eine zentrale Kompetenz wissenschaftlichen Arbeitens und bildet daher einen festen Ausbildungsbestandteil von Bachelor- und Masterstudiengängen. In entsprechenden Lehrveranstaltungen werden Studierende zwar mit den grundlegenden Hilfsmitteln zur Suche und Verwaltung von Literatur vertraut gemacht, allerdings werden die Potenziale textanalytischer Methoden und Anwendungssysteme (Text Mining, Text Analytics) dabei zumeist nicht abgedeckt. Folglich werden Datenkompetenzen, die zur systemgestützten Analyse und Erschließung von Literaturdaten erforderlich sind, nicht hinreichend ausgeprägt. Um diese Kompetenzlücke zu adressieren, ist an der Hochschule Osnabrück eine Lehrveranstaltung konzipiert und projektorientiert umgesetzt worden, die sich insbesondere an Studierende wirtschaftswissenschaftlicher Studiengänge richtet. Dieser Beitrag dokumentiert die fachliche sowie technische Ausgestaltung dieser Veranstaltung und zeigt Potenziale für die künftige Weiterentwicklung auf.
Die Telekommunikationsindustrie hat in den letzten Jahrzehnten einen enormen Wandel vollzogen. Für Telekommunikationsunternehmen erfordert dies fundamentale Umstrukturierungen von Strategie, Prozessen, Anwendungssystemen und Netzwerktechnologien. Dabei spielen Unternehmensarchitekturen und Referenzmodelle eine wichtige Rolle. Zwar existieren in der Praxis anerkannte Referenzmodelle, aber wie sind diese für eine systematische Transformation zu gestalten? Wie sieht eine konkrete Lösung für die Telekommunikationsindustrie aus?
Als Antwort stellt Christian Czarnecki in seinem Buch eine referenzmodellbasierte Unternehmensarchitektur vor. Basierend auf einer umfangreichen Untersuchung von Transformationsprojekten werden Probleme und Anforderungen der Praxis identifiziert, für die mit Methoden der Unternehmenstransformation, Referenzmodellierung und Unternehmensarchitektur ein Lösungsvorschlag entwickelt und evaluiert wird. Dieser besteht u. a. aus detaillierten Anwendungsfällen, Referenzprozessabläufen, einer Zuordnung von Prozessen zu Anwendungssystemen sowie Handlungsempfehlungen zur Virtualisierung.
Für Wissenschaftler und Studierende der Wirtschaftsinformatik zeigt das Buch neue Erkenntnisse einer anwendungsorientierten Referenzmodellierung. Für Praktiker liefert es eine methodisch fundierte Lösung für die aktuellen Transformationsbedarfe der Telekommunikationsindustrie. Christian Czarnecki arbeitet seit 2004 als Unternehmensberater und hat viele Telekommunikationsunternehmen bei deren Transformation begleitet. In 2013 erfolgte die Promotion zum Doktoringenieur an der Otto-von-Guericke-Universität Magdeburg.
Durch die Fragmentierung von Wertschöpfungsketten ergeben sich neue Herausforderungen für das Management von Kundenbeziehungen. Die Dissertation untersucht die daraus resultierenden Anforderungen an eine übergreifende Integration von Customer Relationship Management in der
Telekommunikationsindustrie. Ziel ist es, durch Anwendung von Methoden eines Enterprise Architecture Framework eine übergreifend Lösung zu gestalten. Grundlegende Prämisse dabei ist, dass die übergreifende Gestaltung eines Customer Relationship Management für alle an der
Wertschöpfung beteiligten Unternehmen vorteilhaft ist.
Die Veränderungen des Telekommunikationsmarktes haben in der Praxis zu einer Vielzahl von Transformationsprojekten geführt. Was gehört aber zu einem “Transformationsprojekt”, welche Prozesse und Systeme werden verändert? Zur Beantwortung dieser Frage haben wir 184 Berichte zu Projekten analysiert, die als "Transformationsprojekte" bezeichnet waren. Für die Analyse haben wir einen Kodierungsrahmen konzipiert und anhand dessen die Berichte mit einem hierarchischen Clustering-Verfahren in Themen gruppiert. Die Ergebnisse liefern Hinweise über die in der Praxis gesetzten Schwerpunkte und Prioritäten. Sie können
somit als Unterstützung für Unternehmen dienen, die ein Transformationsprojekt planen. Sie weisen zudem darauf hin, in welchen Bereichen eines Unternehmens Unterstützung durch wissenschaftlich erprobte Werkzeuge und Modelle nötig ist.
Zur Unterstützung des Transformationsbedarfs von Telekommunikationsunternehmen sind die Referenzmodelle des TM Forums in der Praxis weltweit anerkannt. Dabei findet jedoch meist eine losgelöste Nutzung für spezifische Einzelthemen statt. Daher führt dieser Artikel die bestehenden Inhalte in einer industriespezifischen, übergreifenden Referenzarchitektur zusammen. Der Fokus liegt auf den Ebenen Aufbauorganisation, Prozesse, Applikationen und Daten. Darüber hinaus werden inhaltliche Architekturdomänen zur Strukturierung angeboten. Die Referenzarchitektur ist hierarchisch aufgebaut und wird hier beispielhaft für ausgewählte, aggregierte Inhalte beschrieben. Als erste Evaluation wird die Anwendung der Referenzarchitektur in drei Praxisprojekten erläutert.
Primäre Ziele des Internets der Dinge sind die Steuerung physischer Gegenstände aus der Distanz und das Erfassen von Informationen aus dem Umfeld dieser Gegenstände. Dazu werden Hardwarekomponenten in Gegenstände des täglichen Lebens und die Umwelt integriert. Mithilfe von Informations- und Kommunikationstechnologien entsteht hieraus das Internet der Dinge (Internet of Things, IoT). Vor einem Jahr wurde mit Narrowband Internet of Things (NB-IoT) eine Technologie die es ermöglicht, Hardwarekomponenten energieeffizient und unmittelbar über das Mobilfunknetz zu vernetzen. Gegenstände werden dadurch über große Reichweiten eigenständig kommunikationsfähig. Das IoT steht mit NB-IoT vor einem gestiegenen Nutzenpotenzial, da eine zunehmende Anzahl miteinander verbundener Gegenstände und der Austausch größerer Datenmengen realisierbar sind. Damit sind aus wirtschaftlicher Sicht neue, innovative Anwendungsfälle des IoT möglich, die auch bereits in der Praxis diskutiert werden. In diesem Beitrag wird anhand eines konkreten Anwendungsfalls untersucht, welche neuen Geschäfts- bzw. Partnermodelle durch die gemeinsame Nutzung von NB-IoT-Daten und Big Data-Technologien entstehen und welcher qualitative Mehrwert für die an einem Anwendungsfall beteiligten Stakeholder geschaffen wird. Dazu wird – einem konstruktionsorientierten Forschungsansatz folgend – ein Bewertungsrahmen zur qualitativen Wertschöpfungsanalyse von NB-IoT entwickelt, der u.a. auf der Schablone nach Cockburn und dem Business Model Canvas basiert. Anhand dieses Bewertungsrahmens wird ein Anwendungsfall untersucht, der in anonymisierter Form an konkrete Praxisprojekte angelehnt ist. Konkret wird ein Anwendungsfall betrachtet, der einen Fahrradverleih 2.0 basierend auf dem Einsatz von NB-IoT vorschlägt. Aus den Untersuchungsergebnissen gehen beispielsweise Erkenntnisse hervor, wie Geschäftsmodelle auf
Kritische Infrastrukturen sind primäre Ziele krimineller Hacker. Der Deutsche Bundestag reagierte darauf am 25. Juli 2015 mit einem Gesetz zur Verbesserung der Sicherheit von ITSystemen, dem IT-Sicherheitsgesetz. Dies verlangt von Betreibern kritischer Infrastrukturen, angemessene Mindeststandards für organisatorische und technische Sicherheit zu implementieren, um den Betrieb und die Verfügbarkeit dieser Infrastruktur zu gewährleisten. Telekommunikationsunternehmen sind einerseits von diesem Gesetz in besonderem Maße betroffen und verfügen andererseits mit dem Rahmenwerk enhanced Telecom Operations Map (eTOM) über ein international anerkanntes Referenzmodell zur Gestaltung von Geschäftsprozessen in dieser Branche. Da sämtliche Telekommunikationsunternehmen in Deutschland verpflichtet sind, das Gesetz innerhalb eines bestimmten Zeitrahmens zu implementieren, präsentiert dieser Beitrag einen Vorschlag zur Erweiterung von eTOM um die relevanten Anforderungen des deutschen IT-Sicherheitsgesetzes.
Momentan finden in vielen Branchen umfassende Veränderungen von Märkten und Wertschöpfungsketten statt, welche auch als Digitale Transformation bezeichnet werden. In diesem Zusammenhang wird das Internet der Dinge (Internet of Things, IoT) als ein wichtiger technischer Enabler der Veränderungen angesehen. Primäre Ziele des IoT sind die Steuerung physischer Gegen-stände aus der Distanz und das Erfassen von Informationen aus dem Umfeld dieser Gegenstände. Welche neuen Geschäfts-bzw. Partnermodelle entstehen durch die gemeinsame Nutzung von IoT-Daten und Big-Data-Technologien und welcher qualitative Mehrwert wird dadurch geschaffen? Als Antwort wird in diesem Beitrag ein Bewertungsrahmen zur qualitativen Wertschöpfungsanalyse von IoT vorgeschlagen. Anhand dieses Bewertungsrahmens wird ein Anwendungsfall untersucht, der in anonymisierter Form an konkrete Praxisprojekte angelehnt ist. Konkret wird ein Anwendungsfall betrachtet, der eine Abfallwirtschaft 2.0 basierend auf dem Einsatz von IoT vorschlägt. Aus den Untersuchungsergebnissen gehen beispielsweise Erkenntnisse hervor, wie Geschäftsmodelle auf Basis eines unentgeltlichen Informationsaustauschs durch IoT gestaltet werden können.
Der Telekommunikationsmarkt erfährt substanzielle Veränderungen. Neue Geschäftsmodelle, innovative Dienstleistungen und Technologien erfordern Reengineering, Transformation und Prozessstandardisierung. Mit der Enhanced Telecom Operation Map (eTOM) bietet das TM Forum ein international anerkanntes de facto Referenz-Prozess-Framework basierend auf spezifischen Anforderungen und Ausprägungen der Telekommunikationsindustrie an. Allerdings enthält dieses Referenz-Framework nur eine hierarchische Sammlung von Prozessen auf unterschiedlichen Abstraktionsebenen. Eine Kontrollsicht verstanden als sequenzielle Anordnung von Aktivitäten und daraus resultierend ein realer Prozessablauf fehlt ebenso wie eine Ende-zu-Ende-Sicht auf den Kunden. In diesem Artikel erweitern wir das eTOM-Referenzmodell durch Referenzprozessabläufe, in welchen wir das Wissen über Prozesse in Telekommunikationsunternehmen abstrahieren und generalisieren. Durch die Referenzprozessabläufe werden Unternehmen bei dem strukturierten und transparenten (Re-)Design ihrer Prozesse unterstützt. Wir demonstrieren die Anwendbarkeit und Nützlichkeit unserer Referenzprozessabläufe in zwei Fallstudien und evaluieren diese anhand von Kriterien für die Bewertung von Referenzmodellen. Die Referenzprozessabläufe wurden vom TM Forum in den Standard aufgenommen und als Teil von eTOM Version 9 veröffentlicht. Darüber hinaus diskutieren wir die Komponenten unseres Ansatzes, die auch außerhalb der Telekommunikationsindustrie angewandt werden können.
Das anhaltende Wachstum wissenschaftlicher Veröffentlichungen wirft die Fragestellung auf, wie Literaturana-lysen im Rahmen von Forschungsprozessen digitalisiert und somit produktiver realisiert werden können. Insbesondere in informationstechnischen Fachgebieten ist die Forschungspraxis durch ein rasant wachsendes Publikationsaufkommen gekennzeichnet. Infolgedessen bietet sich der Einsatz von Methoden der Textanalyse (Text Analytics) an, die Textdaten automatisch vorbereiten und verarbeiten können. Erkenntnisse entstehen dabei aus Analysen von Wortarten und Subgruppen, Korrelations- sowie Zeitreihenanalysen. Dieser Beitrag stellt die Konzeption und Realisierung eines Prototypen vor, mit dem Anwender bibliographische Daten aus der etablierten Literaturdatenbank EBSCO Discovery Service mithilfe textanalytischer Methoden erschließen können. Der Prototyp basiert auf dem Analysesystem IBM Watson Explorer, das Hochschulen lizenzkostenfrei zur Verfügung steht. Potenzielle Adressaten des Prototypen sind Forschungseinrichtungen, Beratungsunternehmen sowie Entscheidungsträger in Politik und Unternehmenspraxis.
Im Rahmen der Digitalisierung ist die zunehmende Automatisierung von bisher manuellen Prozessschritten ein Aspekt, der massive Auswirkungen auf die zukünftige Arbeitswelt haben wird. In diesem Kontext werden an den Einsatz von Softwarerobotern zur Prozessautomatisierung hohe Erwartungen geknüpft. Bei den Implementierungsansätzen wird die Diskussion aktuell insbesondere durch Robotic Process Automation (RPA) und Chatbots geprägt. Beide Ansätze verfolgen das gemeinsame Ziel einer 1:1-Automatisierung von menschlichen Handlungen und dadurch ein direktes Ersetzen von Mitarbeitern durch Maschinen. Bei RPA werden Prozesse durch Softwareroboter erlernt und automatisiert ausgeführt. Dabei emulieren RPA-Roboter die Eingaben auf der bestehenden Präsentationsschicht, so dass keine Änderungen an vorhandenen Anwendungssystemen notwendig sind. Am Markt werden bereits unterschiedliche RPA-Lösungen als Softwareprodukte angeboten. Durch Chatbots werden Ein- und Ausgaben von Anwendungssystemen über natürliche Sprache realisiert. Dadurch ist die Automatisierung von unternehmensexterner Kommunikation (z. B. mit Kunden) aber auch von unternehmensinternen Assistenztätigkeiten möglich. Der Beitrag diskutiert die Auswirkungen von Softwarerobotern auf die Arbeitswelt anhand von Anwendungsbeispielen und erläutert die unternehmensindividuelle Entscheidung über den Einsatz von Softwarerobotern anhand von Effektivitäts- und Effizienzzielen.
Angesichts des anhaltenden Wachstums wissenschaftlicher Veröffentlichungen werden Instrumente benötigt, um Literaturanalysen durch Digitalisierung produktiver zu gestalten. Dieser Beitrag stellt einen Ansatz vor, der bibliographische Daten aus der Literaturdatenbank EBSCO Discovery Service mithilfe von Text-Analytics-Methoden erschließt. Die Lösung basiert auf dem Textanalysesystem IBM Watson Explorer und eignet sich für explorative Literaturanalysen, um beispielsweise den Status quo emergierender Technologiefelder in der Literatur zu reflektieren. Die generierten Ergebnisse sind in den Kontext der zunehmenden Werkzeugunterstützung des Literaturrechercheprozesses einzuordnen und können für intra- sowie interinstitutionelle Wissenstransferprozesse in Forschungs- und Beratungskontexten genutzt werden.
Am Beispiel der Telekommunikationsindustrie zeigt der Beitrag eine konkrete Ausgestaltung anwendungsorientierter Forschung, die sowohl für die Praxis als auch für die Wissenschaft nutzen- und erkenntnisbringend ist. Forschungsgegenstand sind die Referenzmodelle des Industriegremiums TM Forum, die von vielen Telekommunikationsunternehmen zur Transformation ihrer Strukturen und Systeme genutzt werden. Es wird die langjährige Forschungstätigkeit bei der Weiterentwicklung und Anwendung dieser Referenzmodelle beschrieben. Dabei wird ein konsequent gestaltungsorientierter Forschungsansatz verfolgt. Das Zusammenspiel aus kontinuierlicher Weiterentwicklung in Zusammenarbeit mit einem Industriegremium und der Anwendung in vielfältigen Praxisprojekten führt zu einer erfolgreichen Symbiose aus praktischer Nutzengenerierung sowie wissenschaftlichem Erkenntnisgewinn. Der Beitrag stellt den gewählten Forschungsansatz anhand konkreter Beispiele vor. Darauf basierend werden Empfehlungen und Herausforderungen für eine gestaltungs- und praxisorientierte Forschung diskutiert.
Das Ziel des INTERREG-Projektes „SHAREuregio“ (FKZ: 34.EFRE-0300134)
ist es, grenzüberschreitende Mobilität in der Euregio Rhein-Maas-Nord zu
ermöglichen und zu fördern. Dazu soll ein elektromobiles Car- und Bikesharing-
System entwickelt und in der Stadt Mönchengladbach, im Kreis Viersen
sowie in den Gemeinden Roermond und Venlo (beide NL) zusammen mit den
Partnern Wirtschaftsförderung Mönchengladbach, Wirtschaftsförderung für den
Kreis Viersen, NEW AG, Goodmoovs (NL), Greenflux (NL) und der FH Aachen
implementiert werden. Zunächst richtet sich das Angebot, bestehend aus 40
Elektroautos und 40 Elektrofahrrädern, an Unternehmen und wird nach einer
Erprobungsphase, mit einer größeren Anzahl an Fahrzeugen, auch für Privatpersonen
verfügbar gemacht werden. Die Fahrzeuge stehen bei den jeweiligen
Anwendungspartnern in Deutschland und den Niederlanden.
Im Rahmen dieses Projektes hat die FH Aachen „FlexSHARE“ entwickelt
– ein methodisches Framework zur innovativen Gestaltung urbaner Sharing-
Angebote. Das Framework ermöglicht es, anhand von messbaren Kenngrößen,
bedarfsgerechte und auf die Region abgestimmte Sharing-Systeme zu entwickeln.
Daten und Informationen sind die wichtigsten Ressourcen vieler Unternehmen und müssen daher entsprechend geschützt werden. Getrieben durch die erhöhte Vernetzung von Informationstechnologie, die höhere Offenheit infolge datengetriebener Dienstleistungen und eine starke Zunahme an Datenquellen, rücken die Gefahren von Informationsdiebstahl, -manipulation und -verlust in den Fokus von produzierenden Unternehmen. Auf dem Weg zum lern- und wandlungsfähigen Unternehmen kann dies zu einem großen Hindernis werden, da einerseits zu hohe Sicherheitsanforderungen neue Entwicklungen beschränken, andererseits wegen des Mangels an ausreichenden Informationssicherheitskonzepten Unternehmen weniger Innovationen wagen. Deshalb bedarf es individuell angepasster Konzepte für die Bereiche IT-Security, IT-Safety und Datenschutz für vernetzte Produkte, Produktion und Arbeitsplätze. Bei der Entwicklung und Durchsetzung dieser Konzepte steht der Faktor Mensch im Zentrum aller Überlegungen.
In diesem Kapitel wird dargestellt, wie der Faktor Mensch bei der Erstellung von Informationssicherheitskonzepten in verschiedenen Phasen zu beachten ist. Beginnend mit der Integration von Informationssystemen und damit verbundenen Sicherheitsmaßnahmen, über die Administration, bis hin zur Anwendung durch den Endnutzer, werden Methoden beschrieben, die den Menschen, verbunden mit seinem Mehrwert wie auch den Risiken, einschließen. Dabei werden sowohl Grundlagen aufgezeigt als auch Konzepte vorgestellt, mit denen Entscheider in der Unternehmens-IT Leitlinien für die Informationssicherheit festlegen können.
Die Nutzung von Prozessmodellierungsmethoden oder - werkzeugen kann erheblichen Einfluss auf die Effektivität von Prozessen haben. Das gilt insbesondere für Situationen, in denen Personen unter Stress stehen oder ungeübt sind. In diesen Fällen geben Prozessmodelle konkrete Empfehlungen, nach denen sich die handelnden Personen richten könnten. In Experimenten mit der Business-Simulation Apollo 13 haben wir den Effekt eines Einsatzes von Prozessmodellierungsmethoden und -werkzeugen untersucht. Bereits bekannte Theorien (z.B. über geeignete Verhältnisse von Kommunikationsinhalten) konnten bestätigt werden. Darüber hinaus haben wir eine besondere Bedeutung der Übertragbarkeit von Prozessmodellen in konkrete Handlungen identifiziert.
Es existieren verschiedenste Arten von Spielen, die versuchen, die Motivation einer Spielsituation in einen ernsten Kontext zu überführen. In diesem Artikel wird der Überbegriff „Competence Developing Games“ definiert und anhand von Beispielen erläutert. Dafür werden Erkennungskriterien vorgestellt, entsprechende Spieltypen erläutert und eine Zuordnung durch-geführt.
In diesem Paper wird die Entwicklung und Evaluation eines grafischen Regeleditors für das Erstellen von „Smart Living Environments“-Services vorgestellt. Dafür werden zunächst die Deduktion und Implementierung des grafischen Regeleditors erläutert. Anschließend wird eine Probandenstudie vorgestellt, in welcher der Mehrwert bezogen auf die Aspekte Zeit, Fehleranfälligkeit und Gebrauchstauglichkeit festgestellt wird.
Smart-Living-Services nur gegen Daten? Process-Mining als Möglichkeit zur Steigerung der Akzeptanz!
(2019)
Seit Jahren etablieren sich Technologien in unserem Alltag, die mit Hilfe von smarten Komponenten neue Services und Vernetzungsmöglichkeiten schaffen. Dieses Paper beschreibt die Ergebnisse einer Studie, die die Akzeptanz von IoT-gestützten, smarten Services im privaten Umfeld untersucht. Dabei wird eine zentrale Datenverarbeitung mit automatisierter Erstellung smarter Services der dezentralen Datenverarbeitung mit manueller Serviceerstellung in sieben Kategorien gegenübergestellt. Die Auswertung der Studie legt die Forschungsfrage nahe, ob das Nutzerverhalten im Kontext Smart Living nicht auch mit einem
dezentralen Lösungsansatz, und somit unabhängig von großen Unternehmen, analysiert werden kann. Hierfür wird im zweiten Teil des Papers die Anwendbarkeit von Process-Mining im Bereich Smart Living untersucht und prototypisch getestet.
Obwohl es eine Vielzahl von Einführungskonzepten für ITSM gibt, hat sich bisher keines dieser Konzepte auf breiter Linie durchgesetzt. Das gilt in erhöhtem Maße für ITSM-Einführungskonzepte für KMU, wohl nicht zuletzt aufgrund der Tatsache, dass der Mehrwert von ITSM für KMU aufgrund der geringeren Größe der IT-Organisationen nur entsprechend schwieriger generiert werden kann.
Mit diesem Beitrag wird ein Einführungskonzept für ITSM in KMU systematisch hergeleitet. Dafür wurden zunächst die Treiber und Barrieren von ITSM untersucht, um daraus ein umfassendes Wirkmodell zu entwickeln. Da mit diesem Wirkungsmodell die Einflussfaktoren auf den Erfolg von ITSM in KMU deutlich werden, konnte auf dieser Basis ein Einführungskonzept abgeleitet werden, welches insbesondere die positiven Effekte unterstützt bzw.
verstärkt.
Die steigende Popularität von mobilen Endgeräten im privaten und geschäftlichen Umfeld geht mit einem Anstieg an Sicherheitslücken und somit potentiellen Angriffsflächen einher. Als ein Element der technischen und organisatorischen Maßnahmen zum Schutz eines Netzwerkes können Monitoring-Apps dienen, die unerwünschtes Verhalten und Angriffe erkennen. Die automatisierte Überwachung von Endgeräten ist jedoch rechtlich und ethisch komplex. Dies in Kombination mit einer hohen Sensibilität der Nutzer und Nutzerinnen dieser Geräte in Bezug auf Privatsphäre, kann zu einer geringen Akzeptanz und Compliance führen. Eine datenschutzrechtlich und ethisch einwandfreie Konzeption solcher Apps bereits im Designprozess führt zu höherer Akzeptanz und verbessert so die Effizienz. Diese Analyse beschreibt Möglichkeiten zur Umsetzung.
Verfügbarkeit und Nachhaltigkeit sind wichtige Anforderungen bei der Planung langlebiger technischer Systeme. Meist werden bei Lebensdaueroptimierungen lediglich einzelne Komponenten vordefinierter Systeme untersucht. Ob eine optimale Lebensdauer eine gänzlich andere Systemvariante bedingt, wird nur selten hinterfragt. Technical Operations Research (TOR) erlaubt es, aus Obermengen technischer Systeme automatisiert die lebensdaueroptimale Systemstruktur auszuwählen. Der Artikel zeigt dies am Beispiel eines hydrostatischen Getriebes.
Nahezu 100.000 denkbare Strukturen kann ein Getriebe bei gleicher Funktion aufweisen - je nach Ganganzahl und gefordertem Freiheitsgrad. Mit dem traditionellen Ansatz bei der Entwicklung, einzelne vielversprechende Systemkonfigurationen manuell zu identifizieren und zu vergleichen, können leicht innovative und vor allem kostenminimale Lösungen übersehen werden. Im Rahmen eines Forschungsprojekts hat die TU Darmstadt spezielle Optimierungsmethoden angewendet, um auch bei großen Lösungsräumen zielsicher ein für die individuellen Zielstellungen optimales Layout zu finden.
Im Projekt wurden mit Hilfe zeitaufgeloester optischer Messtechniken Relaxations-Dynamiken von optisch angeregten Ladungstraegern und Hochfrequenzeigenschaften von Hochtemperatursupraleitern untersucht. Oberhalb der Sprungtemperatur wurden die Elektron-Phonon-Kopplungskonstanten fuer YBCO und BSCCO bestimmt. Dabei wurde erstmalig ein direkter Zusammenhang zwischen der Sprungtemperatur und der Kopplungstaerke gefunden. Der Kopplungsmechanismus enthaelt sowohl phononische als auch elektronische (spindynamische) Anteile. Unterhalb von T_c wird die Dynamik durch Aufbrechen und Rekombination von Cooper-Paaren bestimmt. Bei den Arbeiten zu den kohaerenten Phononen wurde ein Modell entwickelt, das das 'Anwerfen' der Phononen und das Amplitudenverhalten unterhalb der Sprungtemperatur erklaert. Als begleitende Untersuchungen wurden breitbandige Hochfrequenz-Messungen vorgenommen. Die Methode erlaubt die Untersuchung von Ladungstraegerdichten und von Streumechanismen. Erstmalig wurde in verspannten YBCO-Duennfilmen eine starke temperaturabhaengige Resonanz-Absorption beobachtet, die als Josephson-Plasmaresonanz an intrinsischen Kontakten identifiziert werden konnte. Die Nutzbarkeit dieser Kontakte fuer Bauelemente wurde durch einen Mikrowellendetektor demonstriert. Durch den Nachweis von emittierter gepulster Strahlung aus einer stromdurchflossenen supraleitenden Bruecke nach optischer Anregung wurde erstmals die Einsatzmoeglichkeit von HTSL fuer schnelle optische Schalter demonstriert. Es wurde gezeigt, dass die Schaltgeschwindigkeit eine direkte Folge der Ladungstraegerdynamik ist.