Refine
Year of publication
Institute
- Fachbereich Elektrotechnik und Informationstechnik (440) (remove)
Has Fulltext
- no (440) (remove)
Language
- German (440) (remove)
Document Type
- Article (215)
- Book (90)
- Conference Proceeding (59)
- Part of a Book (27)
- Patent (15)
- Report (9)
- Other (8)
- Contribution to a Periodical (6)
- Doctoral Thesis (5)
- Working Paper (4)
Keywords
- Digitale Transformation (3)
- Digitalisierung (3)
- Literaturanalyse (3)
- Referenzmodellierung (3)
- Forschungsprozess (2)
- Mathematik (2)
- Prozessautomatisierung (2)
- Text Analytics (2)
- Anomalieerkennung (1)
- Antennen (1)
Kundenanforderungen an Netzwerke haben sich in den vergangenen Jahren stark verändert. Mit NFV und SDN sind Unternehmen technisch in der Lage, diesen gerecht zu werden. Die Provider stehen jedoch vor großen Herausforderungen: Insbesondere Produkte und Prozesse müssen angepasst und agiler werden, um die Stärken von NFV und SDN zum Kundenvorteil auszuspielen.
Die Durchführung einer systematischen Literaturrecherche ist eine zentrale Kompetenz wissenschaftlichen Arbeitens und bildet daher einen festen Ausbildungsbestandteil von Bachelor- und Masterstudiengängen. In entsprechenden Lehrveranstaltungen werden Studierende zwar mit den grundlegenden Hilfsmitteln zur Suche und Verwaltung von Literatur vertraut gemacht, allerdings werden die Potenziale textanalytischer Methoden und Anwendungssysteme (Text Mining, Text Analytics) dabei zumeist nicht abgedeckt. Folglich werden Datenkompetenzen, die zur systemgestützten Analyse und Erschließung von Literaturdaten erforderlich sind, nicht hinreichend ausgeprägt. Um diese Kompetenzlücke zu adressieren, ist an der Hochschule Osnabrück eine Lehrveranstaltung konzipiert und projektorientiert umgesetzt worden, die sich insbesondere an Studierende wirtschaftswissenschaftlicher Studiengänge richtet. Dieser Beitrag dokumentiert die fachliche sowie technische Ausgestaltung dieser Veranstaltung und zeigt Potenziale für die künftige Weiterentwicklung auf.
Die Telekommunikationsindustrie hat in den letzten Jahrzehnten einen enormen Wandel vollzogen. Für Telekommunikationsunternehmen erfordert dies fundamentale Umstrukturierungen von Strategie, Prozessen, Anwendungssystemen und Netzwerktechnologien. Dabei spielen Unternehmensarchitekturen und Referenzmodelle eine wichtige Rolle. Zwar existieren in der Praxis anerkannte Referenzmodelle, aber wie sind diese für eine systematische Transformation zu gestalten? Wie sieht eine konkrete Lösung für die Telekommunikationsindustrie aus?
Als Antwort stellt Christian Czarnecki in seinem Buch eine referenzmodellbasierte Unternehmensarchitektur vor. Basierend auf einer umfangreichen Untersuchung von Transformationsprojekten werden Probleme und Anforderungen der Praxis identifiziert, für die mit Methoden der Unternehmenstransformation, Referenzmodellierung und Unternehmensarchitektur ein Lösungsvorschlag entwickelt und evaluiert wird. Dieser besteht u. a. aus detaillierten Anwendungsfällen, Referenzprozessabläufen, einer Zuordnung von Prozessen zu Anwendungssystemen sowie Handlungsempfehlungen zur Virtualisierung.
Für Wissenschaftler und Studierende der Wirtschaftsinformatik zeigt das Buch neue Erkenntnisse einer anwendungsorientierten Referenzmodellierung. Für Praktiker liefert es eine methodisch fundierte Lösung für die aktuellen Transformationsbedarfe der Telekommunikationsindustrie. Christian Czarnecki arbeitet seit 2004 als Unternehmensberater und hat viele Telekommunikationsunternehmen bei deren Transformation begleitet. In 2013 erfolgte die Promotion zum Doktoringenieur an der Otto-von-Guericke-Universität Magdeburg.
Durch die Fragmentierung von Wertschöpfungsketten ergeben sich neue Herausforderungen für das Management von Kundenbeziehungen. Die Dissertation untersucht die daraus resultierenden Anforderungen an eine übergreifende Integration von Customer Relationship Management in der
Telekommunikationsindustrie. Ziel ist es, durch Anwendung von Methoden eines Enterprise Architecture Framework eine übergreifend Lösung zu gestalten. Grundlegende Prämisse dabei ist, dass die übergreifende Gestaltung eines Customer Relationship Management für alle an der
Wertschöpfung beteiligten Unternehmen vorteilhaft ist.
Die Veränderungen des Telekommunikationsmarktes haben in der Praxis zu einer Vielzahl von Transformationsprojekten geführt. Was gehört aber zu einem “Transformationsprojekt”, welche Prozesse und Systeme werden verändert? Zur Beantwortung dieser Frage haben wir 184 Berichte zu Projekten analysiert, die als "Transformationsprojekte" bezeichnet waren. Für die Analyse haben wir einen Kodierungsrahmen konzipiert und anhand dessen die Berichte mit einem hierarchischen Clustering-Verfahren in Themen gruppiert. Die Ergebnisse liefern Hinweise über die in der Praxis gesetzten Schwerpunkte und Prioritäten. Sie können
somit als Unterstützung für Unternehmen dienen, die ein Transformationsprojekt planen. Sie weisen zudem darauf hin, in welchen Bereichen eines Unternehmens Unterstützung durch wissenschaftlich erprobte Werkzeuge und Modelle nötig ist.
Zur Unterstützung des Transformationsbedarfs von Telekommunikationsunternehmen sind die Referenzmodelle des TM Forums in der Praxis weltweit anerkannt. Dabei findet jedoch meist eine losgelöste Nutzung für spezifische Einzelthemen statt. Daher führt dieser Artikel die bestehenden Inhalte in einer industriespezifischen, übergreifenden Referenzarchitektur zusammen. Der Fokus liegt auf den Ebenen Aufbauorganisation, Prozesse, Applikationen und Daten. Darüber hinaus werden inhaltliche Architekturdomänen zur Strukturierung angeboten. Die Referenzarchitektur ist hierarchisch aufgebaut und wird hier beispielhaft für ausgewählte, aggregierte Inhalte beschrieben. Als erste Evaluation wird die Anwendung der Referenzarchitektur in drei Praxisprojekten erläutert.
Primäre Ziele des Internets der Dinge sind die Steuerung physischer Gegenstände aus der Distanz und das Erfassen von Informationen aus dem Umfeld dieser Gegenstände. Dazu werden Hardwarekomponenten in Gegenstände des täglichen Lebens und die Umwelt integriert. Mithilfe von Informations- und Kommunikationstechnologien entsteht hieraus das Internet der Dinge (Internet of Things, IoT). Vor einem Jahr wurde mit Narrowband Internet of Things (NB-IoT) eine Technologie die es ermöglicht, Hardwarekomponenten energieeffizient und unmittelbar über das Mobilfunknetz zu vernetzen. Gegenstände werden dadurch über große Reichweiten eigenständig kommunikationsfähig. Das IoT steht mit NB-IoT vor einem gestiegenen Nutzenpotenzial, da eine zunehmende Anzahl miteinander verbundener Gegenstände und der Austausch größerer Datenmengen realisierbar sind. Damit sind aus wirtschaftlicher Sicht neue, innovative Anwendungsfälle des IoT möglich, die auch bereits in der Praxis diskutiert werden. In diesem Beitrag wird anhand eines konkreten Anwendungsfalls untersucht, welche neuen Geschäfts- bzw. Partnermodelle durch die gemeinsame Nutzung von NB-IoT-Daten und Big Data-Technologien entstehen und welcher qualitative Mehrwert für die an einem Anwendungsfall beteiligten Stakeholder geschaffen wird. Dazu wird – einem konstruktionsorientierten Forschungsansatz folgend – ein Bewertungsrahmen zur qualitativen Wertschöpfungsanalyse von NB-IoT entwickelt, der u.a. auf der Schablone nach Cockburn und dem Business Model Canvas basiert. Anhand dieses Bewertungsrahmens wird ein Anwendungsfall untersucht, der in anonymisierter Form an konkrete Praxisprojekte angelehnt ist. Konkret wird ein Anwendungsfall betrachtet, der einen Fahrradverleih 2.0 basierend auf dem Einsatz von NB-IoT vorschlägt. Aus den Untersuchungsergebnissen gehen beispielsweise Erkenntnisse hervor, wie Geschäftsmodelle auf
Kritische Infrastrukturen sind primäre Ziele krimineller Hacker. Der Deutsche Bundestag reagierte darauf am 25. Juli 2015 mit einem Gesetz zur Verbesserung der Sicherheit von ITSystemen, dem IT-Sicherheitsgesetz. Dies verlangt von Betreibern kritischer Infrastrukturen, angemessene Mindeststandards für organisatorische und technische Sicherheit zu implementieren, um den Betrieb und die Verfügbarkeit dieser Infrastruktur zu gewährleisten. Telekommunikationsunternehmen sind einerseits von diesem Gesetz in besonderem Maße betroffen und verfügen andererseits mit dem Rahmenwerk enhanced Telecom Operations Map (eTOM) über ein international anerkanntes Referenzmodell zur Gestaltung von Geschäftsprozessen in dieser Branche. Da sämtliche Telekommunikationsunternehmen in Deutschland verpflichtet sind, das Gesetz innerhalb eines bestimmten Zeitrahmens zu implementieren, präsentiert dieser Beitrag einen Vorschlag zur Erweiterung von eTOM um die relevanten Anforderungen des deutschen IT-Sicherheitsgesetzes.
Momentan finden in vielen Branchen umfassende Veränderungen von Märkten und Wertschöpfungsketten statt, welche auch als Digitale Transformation bezeichnet werden. In diesem Zusammenhang wird das Internet der Dinge (Internet of Things, IoT) als ein wichtiger technischer Enabler der Veränderungen angesehen. Primäre Ziele des IoT sind die Steuerung physischer Gegen-stände aus der Distanz und das Erfassen von Informationen aus dem Umfeld dieser Gegenstände. Welche neuen Geschäfts-bzw. Partnermodelle entstehen durch die gemeinsame Nutzung von IoT-Daten und Big-Data-Technologien und welcher qualitative Mehrwert wird dadurch geschaffen? Als Antwort wird in diesem Beitrag ein Bewertungsrahmen zur qualitativen Wertschöpfungsanalyse von IoT vorgeschlagen. Anhand dieses Bewertungsrahmens wird ein Anwendungsfall untersucht, der in anonymisierter Form an konkrete Praxisprojekte angelehnt ist. Konkret wird ein Anwendungsfall betrachtet, der eine Abfallwirtschaft 2.0 basierend auf dem Einsatz von IoT vorschlägt. Aus den Untersuchungsergebnissen gehen beispielsweise Erkenntnisse hervor, wie Geschäftsmodelle auf Basis eines unentgeltlichen Informationsaustauschs durch IoT gestaltet werden können.
Der Telekommunikationsmarkt erfährt substanzielle Veränderungen. Neue Geschäftsmodelle, innovative Dienstleistungen und Technologien erfordern Reengineering, Transformation und Prozessstandardisierung. Mit der Enhanced Telecom Operation Map (eTOM) bietet das TM Forum ein international anerkanntes de facto Referenz-Prozess-Framework basierend auf spezifischen Anforderungen und Ausprägungen der Telekommunikationsindustrie an. Allerdings enthält dieses Referenz-Framework nur eine hierarchische Sammlung von Prozessen auf unterschiedlichen Abstraktionsebenen. Eine Kontrollsicht verstanden als sequenzielle Anordnung von Aktivitäten und daraus resultierend ein realer Prozessablauf fehlt ebenso wie eine Ende-zu-Ende-Sicht auf den Kunden. In diesem Artikel erweitern wir das eTOM-Referenzmodell durch Referenzprozessabläufe, in welchen wir das Wissen über Prozesse in Telekommunikationsunternehmen abstrahieren und generalisieren. Durch die Referenzprozessabläufe werden Unternehmen bei dem strukturierten und transparenten (Re-)Design ihrer Prozesse unterstützt. Wir demonstrieren die Anwendbarkeit und Nützlichkeit unserer Referenzprozessabläufe in zwei Fallstudien und evaluieren diese anhand von Kriterien für die Bewertung von Referenzmodellen. Die Referenzprozessabläufe wurden vom TM Forum in den Standard aufgenommen und als Teil von eTOM Version 9 veröffentlicht. Darüber hinaus diskutieren wir die Komponenten unseres Ansatzes, die auch außerhalb der Telekommunikationsindustrie angewandt werden können.
Das anhaltende Wachstum wissenschaftlicher Veröffentlichungen wirft die Fragestellung auf, wie Literaturana-lysen im Rahmen von Forschungsprozessen digitalisiert und somit produktiver realisiert werden können. Insbesondere in informationstechnischen Fachgebieten ist die Forschungspraxis durch ein rasant wachsendes Publikationsaufkommen gekennzeichnet. Infolgedessen bietet sich der Einsatz von Methoden der Textanalyse (Text Analytics) an, die Textdaten automatisch vorbereiten und verarbeiten können. Erkenntnisse entstehen dabei aus Analysen von Wortarten und Subgruppen, Korrelations- sowie Zeitreihenanalysen. Dieser Beitrag stellt die Konzeption und Realisierung eines Prototypen vor, mit dem Anwender bibliographische Daten aus der etablierten Literaturdatenbank EBSCO Discovery Service mithilfe textanalytischer Methoden erschließen können. Der Prototyp basiert auf dem Analysesystem IBM Watson Explorer, das Hochschulen lizenzkostenfrei zur Verfügung steht. Potenzielle Adressaten des Prototypen sind Forschungseinrichtungen, Beratungsunternehmen sowie Entscheidungsträger in Politik und Unternehmenspraxis.
Im Rahmen der Digitalisierung ist die zunehmende Automatisierung von bisher manuellen Prozessschritten ein Aspekt, der massive Auswirkungen auf die zukünftige Arbeitswelt haben wird. In diesem Kontext werden an den Einsatz von Softwarerobotern zur Prozessautomatisierung hohe Erwartungen geknüpft. Bei den Implementierungsansätzen wird die Diskussion aktuell insbesondere durch Robotic Process Automation (RPA) und Chatbots geprägt. Beide Ansätze verfolgen das gemeinsame Ziel einer 1:1-Automatisierung von menschlichen Handlungen und dadurch ein direktes Ersetzen von Mitarbeitern durch Maschinen. Bei RPA werden Prozesse durch Softwareroboter erlernt und automatisiert ausgeführt. Dabei emulieren RPA-Roboter die Eingaben auf der bestehenden Präsentationsschicht, so dass keine Änderungen an vorhandenen Anwendungssystemen notwendig sind. Am Markt werden bereits unterschiedliche RPA-Lösungen als Softwareprodukte angeboten. Durch Chatbots werden Ein- und Ausgaben von Anwendungssystemen über natürliche Sprache realisiert. Dadurch ist die Automatisierung von unternehmensexterner Kommunikation (z. B. mit Kunden) aber auch von unternehmensinternen Assistenztätigkeiten möglich. Der Beitrag diskutiert die Auswirkungen von Softwarerobotern auf die Arbeitswelt anhand von Anwendungsbeispielen und erläutert die unternehmensindividuelle Entscheidung über den Einsatz von Softwarerobotern anhand von Effektivitäts- und Effizienzzielen.
Angesichts des anhaltenden Wachstums wissenschaftlicher Veröffentlichungen werden Instrumente benötigt, um Literaturanalysen durch Digitalisierung produktiver zu gestalten. Dieser Beitrag stellt einen Ansatz vor, der bibliographische Daten aus der Literaturdatenbank EBSCO Discovery Service mithilfe von Text-Analytics-Methoden erschließt. Die Lösung basiert auf dem Textanalysesystem IBM Watson Explorer und eignet sich für explorative Literaturanalysen, um beispielsweise den Status quo emergierender Technologiefelder in der Literatur zu reflektieren. Die generierten Ergebnisse sind in den Kontext der zunehmenden Werkzeugunterstützung des Literaturrechercheprozesses einzuordnen und können für intra- sowie interinstitutionelle Wissenstransferprozesse in Forschungs- und Beratungskontexten genutzt werden.
Am Beispiel der Telekommunikationsindustrie zeigt der Beitrag eine konkrete Ausgestaltung anwendungsorientierter Forschung, die sowohl für die Praxis als auch für die Wissenschaft nutzen- und erkenntnisbringend ist. Forschungsgegenstand sind die Referenzmodelle des Industriegremiums TM Forum, die von vielen Telekommunikationsunternehmen zur Transformation ihrer Strukturen und Systeme genutzt werden. Es wird die langjährige Forschungstätigkeit bei der Weiterentwicklung und Anwendung dieser Referenzmodelle beschrieben. Dabei wird ein konsequent gestaltungsorientierter Forschungsansatz verfolgt. Das Zusammenspiel aus kontinuierlicher Weiterentwicklung in Zusammenarbeit mit einem Industriegremium und der Anwendung in vielfältigen Praxisprojekten führt zu einer erfolgreichen Symbiose aus praktischer Nutzengenerierung sowie wissenschaftlichem Erkenntnisgewinn. Der Beitrag stellt den gewählten Forschungsansatz anhand konkreter Beispiele vor. Darauf basierend werden Empfehlungen und Herausforderungen für eine gestaltungs- und praxisorientierte Forschung diskutiert.
Das Ziel des INTERREG-Projektes „SHAREuregio“ (FKZ: 34.EFRE-0300134)
ist es, grenzüberschreitende Mobilität in der Euregio Rhein-Maas-Nord zu
ermöglichen und zu fördern. Dazu soll ein elektromobiles Car- und Bikesharing-
System entwickelt und in der Stadt Mönchengladbach, im Kreis Viersen
sowie in den Gemeinden Roermond und Venlo (beide NL) zusammen mit den
Partnern Wirtschaftsförderung Mönchengladbach, Wirtschaftsförderung für den
Kreis Viersen, NEW AG, Goodmoovs (NL), Greenflux (NL) und der FH Aachen
implementiert werden. Zunächst richtet sich das Angebot, bestehend aus 40
Elektroautos und 40 Elektrofahrrädern, an Unternehmen und wird nach einer
Erprobungsphase, mit einer größeren Anzahl an Fahrzeugen, auch für Privatpersonen
verfügbar gemacht werden. Die Fahrzeuge stehen bei den jeweiligen
Anwendungspartnern in Deutschland und den Niederlanden.
Im Rahmen dieses Projektes hat die FH Aachen „FlexSHARE“ entwickelt
– ein methodisches Framework zur innovativen Gestaltung urbaner Sharing-
Angebote. Das Framework ermöglicht es, anhand von messbaren Kenngrößen,
bedarfsgerechte und auf die Region abgestimmte Sharing-Systeme zu entwickeln.
Daten und Informationen sind die wichtigsten Ressourcen vieler Unternehmen und müssen daher entsprechend geschützt werden. Getrieben durch die erhöhte Vernetzung von Informationstechnologie, die höhere Offenheit infolge datengetriebener Dienstleistungen und eine starke Zunahme an Datenquellen, rücken die Gefahren von Informationsdiebstahl, -manipulation und -verlust in den Fokus von produzierenden Unternehmen. Auf dem Weg zum lern- und wandlungsfähigen Unternehmen kann dies zu einem großen Hindernis werden, da einerseits zu hohe Sicherheitsanforderungen neue Entwicklungen beschränken, andererseits wegen des Mangels an ausreichenden Informationssicherheitskonzepten Unternehmen weniger Innovationen wagen. Deshalb bedarf es individuell angepasster Konzepte für die Bereiche IT-Security, IT-Safety und Datenschutz für vernetzte Produkte, Produktion und Arbeitsplätze. Bei der Entwicklung und Durchsetzung dieser Konzepte steht der Faktor Mensch im Zentrum aller Überlegungen.
In diesem Kapitel wird dargestellt, wie der Faktor Mensch bei der Erstellung von Informationssicherheitskonzepten in verschiedenen Phasen zu beachten ist. Beginnend mit der Integration von Informationssystemen und damit verbundenen Sicherheitsmaßnahmen, über die Administration, bis hin zur Anwendung durch den Endnutzer, werden Methoden beschrieben, die den Menschen, verbunden mit seinem Mehrwert wie auch den Risiken, einschließen. Dabei werden sowohl Grundlagen aufgezeigt als auch Konzepte vorgestellt, mit denen Entscheider in der Unternehmens-IT Leitlinien für die Informationssicherheit festlegen können.
Die Nutzung von Prozessmodellierungsmethoden oder - werkzeugen kann erheblichen Einfluss auf die Effektivität von Prozessen haben. Das gilt insbesondere für Situationen, in denen Personen unter Stress stehen oder ungeübt sind. In diesen Fällen geben Prozessmodelle konkrete Empfehlungen, nach denen sich die handelnden Personen richten könnten. In Experimenten mit der Business-Simulation Apollo 13 haben wir den Effekt eines Einsatzes von Prozessmodellierungsmethoden und -werkzeugen untersucht. Bereits bekannte Theorien (z.B. über geeignete Verhältnisse von Kommunikationsinhalten) konnten bestätigt werden. Darüber hinaus haben wir eine besondere Bedeutung der Übertragbarkeit von Prozessmodellen in konkrete Handlungen identifiziert.
Es existieren verschiedenste Arten von Spielen, die versuchen, die Motivation einer Spielsituation in einen ernsten Kontext zu überführen. In diesem Artikel wird der Überbegriff „Competence Developing Games“ definiert und anhand von Beispielen erläutert. Dafür werden Erkennungskriterien vorgestellt, entsprechende Spieltypen erläutert und eine Zuordnung durch-geführt.
In diesem Paper wird die Entwicklung und Evaluation eines grafischen Regeleditors für das Erstellen von „Smart Living Environments“-Services vorgestellt. Dafür werden zunächst die Deduktion und Implementierung des grafischen Regeleditors erläutert. Anschließend wird eine Probandenstudie vorgestellt, in welcher der Mehrwert bezogen auf die Aspekte Zeit, Fehleranfälligkeit und Gebrauchstauglichkeit festgestellt wird.
Smart-Living-Services nur gegen Daten? Process-Mining als Möglichkeit zur Steigerung der Akzeptanz!
(2019)
Seit Jahren etablieren sich Technologien in unserem Alltag, die mit Hilfe von smarten Komponenten neue Services und Vernetzungsmöglichkeiten schaffen. Dieses Paper beschreibt die Ergebnisse einer Studie, die die Akzeptanz von IoT-gestützten, smarten Services im privaten Umfeld untersucht. Dabei wird eine zentrale Datenverarbeitung mit automatisierter Erstellung smarter Services der dezentralen Datenverarbeitung mit manueller Serviceerstellung in sieben Kategorien gegenübergestellt. Die Auswertung der Studie legt die Forschungsfrage nahe, ob das Nutzerverhalten im Kontext Smart Living nicht auch mit einem
dezentralen Lösungsansatz, und somit unabhängig von großen Unternehmen, analysiert werden kann. Hierfür wird im zweiten Teil des Papers die Anwendbarkeit von Process-Mining im Bereich Smart Living untersucht und prototypisch getestet.
Obwohl es eine Vielzahl von Einführungskonzepten für ITSM gibt, hat sich bisher keines dieser Konzepte auf breiter Linie durchgesetzt. Das gilt in erhöhtem Maße für ITSM-Einführungskonzepte für KMU, wohl nicht zuletzt aufgrund der Tatsache, dass der Mehrwert von ITSM für KMU aufgrund der geringeren Größe der IT-Organisationen nur entsprechend schwieriger generiert werden kann.
Mit diesem Beitrag wird ein Einführungskonzept für ITSM in KMU systematisch hergeleitet. Dafür wurden zunächst die Treiber und Barrieren von ITSM untersucht, um daraus ein umfassendes Wirkmodell zu entwickeln. Da mit diesem Wirkungsmodell die Einflussfaktoren auf den Erfolg von ITSM in KMU deutlich werden, konnte auf dieser Basis ein Einführungskonzept abgeleitet werden, welches insbesondere die positiven Effekte unterstützt bzw.
verstärkt.
Die steigende Popularität von mobilen Endgeräten im privaten und geschäftlichen Umfeld geht mit einem Anstieg an Sicherheitslücken und somit potentiellen Angriffsflächen einher. Als ein Element der technischen und organisatorischen Maßnahmen zum Schutz eines Netzwerkes können Monitoring-Apps dienen, die unerwünschtes Verhalten und Angriffe erkennen. Die automatisierte Überwachung von Endgeräten ist jedoch rechtlich und ethisch komplex. Dies in Kombination mit einer hohen Sensibilität der Nutzer und Nutzerinnen dieser Geräte in Bezug auf Privatsphäre, kann zu einer geringen Akzeptanz und Compliance führen. Eine datenschutzrechtlich und ethisch einwandfreie Konzeption solcher Apps bereits im Designprozess führt zu höherer Akzeptanz und verbessert so die Effizienz. Diese Analyse beschreibt Möglichkeiten zur Umsetzung.
Verfügbarkeit und Nachhaltigkeit sind wichtige Anforderungen bei der Planung langlebiger technischer Systeme. Meist werden bei Lebensdaueroptimierungen lediglich einzelne Komponenten vordefinierter Systeme untersucht. Ob eine optimale Lebensdauer eine gänzlich andere Systemvariante bedingt, wird nur selten hinterfragt. Technical Operations Research (TOR) erlaubt es, aus Obermengen technischer Systeme automatisiert die lebensdaueroptimale Systemstruktur auszuwählen. Der Artikel zeigt dies am Beispiel eines hydrostatischen Getriebes.
Nahezu 100.000 denkbare Strukturen kann ein Getriebe bei gleicher Funktion aufweisen - je nach Ganganzahl und gefordertem Freiheitsgrad. Mit dem traditionellen Ansatz bei der Entwicklung, einzelne vielversprechende Systemkonfigurationen manuell zu identifizieren und zu vergleichen, können leicht innovative und vor allem kostenminimale Lösungen übersehen werden. Im Rahmen eines Forschungsprojekts hat die TU Darmstadt spezielle Optimierungsmethoden angewendet, um auch bei großen Lösungsräumen zielsicher ein für die individuellen Zielstellungen optimales Layout zu finden.
Im Projekt wurden mit Hilfe zeitaufgeloester optischer Messtechniken Relaxations-Dynamiken von optisch angeregten Ladungstraegern und Hochfrequenzeigenschaften von Hochtemperatursupraleitern untersucht. Oberhalb der Sprungtemperatur wurden die Elektron-Phonon-Kopplungskonstanten fuer YBCO und BSCCO bestimmt. Dabei wurde erstmalig ein direkter Zusammenhang zwischen der Sprungtemperatur und der Kopplungstaerke gefunden. Der Kopplungsmechanismus enthaelt sowohl phononische als auch elektronische (spindynamische) Anteile. Unterhalb von T_c wird die Dynamik durch Aufbrechen und Rekombination von Cooper-Paaren bestimmt. Bei den Arbeiten zu den kohaerenten Phononen wurde ein Modell entwickelt, das das 'Anwerfen' der Phononen und das Amplitudenverhalten unterhalb der Sprungtemperatur erklaert. Als begleitende Untersuchungen wurden breitbandige Hochfrequenz-Messungen vorgenommen. Die Methode erlaubt die Untersuchung von Ladungstraegerdichten und von Streumechanismen. Erstmalig wurde in verspannten YBCO-Duennfilmen eine starke temperaturabhaengige Resonanz-Absorption beobachtet, die als Josephson-Plasmaresonanz an intrinsischen Kontakten identifiziert werden konnte. Die Nutzbarkeit dieser Kontakte fuer Bauelemente wurde durch einen Mikrowellendetektor demonstriert. Durch den Nachweis von emittierter gepulster Strahlung aus einer stromdurchflossenen supraleitenden Bruecke nach optischer Anregung wurde erstmals die Einsatzmoeglichkeit von HTSL fuer schnelle optische Schalter demonstriert. Es wurde gezeigt, dass die Schaltgeschwindigkeit eine direkte Folge der Ladungstraegerdynamik ist.
Die NATO definiert den Cyberspace als die "Umgebung, die durch physische und nicht-physische Bestandteile zum Speichern, Ändern, und Austauschen von Daten mit Hilfe von Computer-Netzwerken" [NATO CCDCOE]. Darüber hinaus ist es ein Medium menschlicher Interaktion. IT Angriffe sind feindselige, nichtkooperative Interaktionen, die mittels Konflikttheorie beschrieben werden können. Durch die Anwendung dieses Gedankengebäudes auf IT Sicherheit von Organisationen können eine Reihe von Verbesserungen in Unternehmen identifiziert werden.
Embedded Systems für IoT
(2019)
Wireless CAN
(2018)
In modernen elektronischen und mechatronischen Systemen, z. B. im industriellen oder automobil Bereich, kommunizieren eingebettete Steuergeräte und Sensoren vielfach über Bussysteme wie CAN oder LIN. Die Kommunikation findet in der Regel drahtgebunden statt, so dass der Kabelbaum für die Kommunikation sehr groß werden kann. Daher ist es naheliegend, Leitungen und dazugehörige Stecker, z. B. für nicht-sicherheitskritische Komfortsysteme, einzusparen und diese durch gerichtete Funkstrecken für kurze Entfernungen zu ersetzen. Somit könnten Komponenten wie ECUs oder Sensoren kabel- und steckerlos in ein Bussystem integriert werden. Zudem ist eine einfache galvanische und mechanische Trennung zu erreichen. Funkübertragung wird bei diesen Bussystemen derzeit nicht eingesetzt, da insbesondere die Echtzeitfähigkeit und die Robustheit der vorhandenen Funksysteme nicht den Anforderungen der Anwendungen entspricht. Zudem sind bestehende Funksysteme wie WLAN oder Bluetooth im Vergleich zur konventionellen Verkabelung teuer und es besteht hierbei die Möglichkeit, dass sie ausspioniert werden können und so sensible Daten entwendet werden können. In dieser Arbeit wird eine alternative Realisierung zu den bestehenden Funksystemen vorgestellt, die aus wenigen Komponenten aufzubauen ist. Es ist eine protokolllose, echtzeitfähige Übertragung möglich und somit die transparente Integration in ein Bussystem wie CAN.
Die Erfindung betrifft ein Bussystem enthaltend Busleitungen, an denen eine Anzahl von Busteilnehmern über einen Transceiver anschließbar sind, wobei der Transceiver eine bidirektionale Kommunikation zwischen mindestens zwei Busteilnehmern bewirkt, wobei auf einer busabgewandten Seite des Transceivers sich an denselben eine Zwischenbrückeneinheit anschließt, die mindestens zwei Sender-/Empfänger-Paare enthaltend jeweils einen Sender und einen Empfänger aufweist, wobei der Sender einen Senderoszillator, eine Amplituden- und/oder Phasen- und/oder Frequenzmodulator sowie eine Antenne aufweist und wobei der Empfänger einen Mischer aufweisenden Demodulator sowie eine Antenne aufweist, wobei ein erstes Sender-/Empfänger-Paar über eine Funkschnittstelle mit dem zweiten Sender-/Empfänger-Paar miteinander gekoppelt sind.
In the future, we expect manufacturing companies to follow a new paradigm that mandates more automation and autonomy in production processes. Such smart factories will offer a variety of production technologies as services that can be combined ad hoc to produce a large number of different product types and variants cost-effectively even in small lot sizes. This is enabled by cyber-physical systems that feature flexible automated planning methods for production scheduling, execution control, and in-factory logistics.
During development, testbeds are required to determine the applicability of integrated systems in such scenarios. Furthermore, benchmarks are needed to quantify and compare system performance in these industry-inspired scenarios at a comprehensible and manageable size which is, at the same time, complex enough to yield meaningful results.
In this chapter, based on our experience in the RoboCup Logistics League (RCLL) as a specific example, we derive a generic blueprint for how a holistic benchmark can be developed, which combines a specific scenario with a set of key performance indicators as metrics to evaluate the overall integrated system and its components.