Refine
Year of publication
Institute
- Fachbereich Medizintechnik und Technomathematik (1934)
- Fachbereich Elektrotechnik und Informationstechnik (1150)
- Fachbereich Wirtschaftswissenschaften (1121)
- Fachbereich Energietechnik (1067)
- Fachbereich Chemie und Biotechnologie (897)
- Fachbereich Maschinenbau und Mechatronik (812)
- Fachbereich Luft- und Raumfahrttechnik (769)
- Fachbereich Bauingenieurwesen (664)
- IfB - Institut für Bioengineering (627)
- INB - Institut für Nano- und Biotechnologien (586)
Has Fulltext
- no (9330) (remove)
Language
Document Type
- Article (5531)
- Conference Proceeding (1421)
- Book (1062)
- Part of a Book (567)
- Patent (177)
- Bachelor Thesis (169)
- Report (83)
- Doctoral Thesis (82)
- Conference: Meeting Abstract (76)
- Other (67)
Keywords
- Illustration (10)
- Nachhaltigkeit (10)
- Corporate Design (9)
- Erscheinungsbild (8)
- Gamification (8)
- Redesign (7)
- Animation (6)
- Datenschutz (6)
- Deutschland (6)
- Digitalisierung (6)
Die neu erschienenen „Empfehlungen zum Einsatz von Verkehrsnachfragemodellen für den Personenverkehr“ liefern erstmals als Empfehlungspapier der Forschungsgesellschaft für Straßen- und Verkehrswesen einen umfassenden Überblick zu den verschiedenen Aspekten der Modellierung und geben dem Fachplaner konkrete Hilfestellung für die Konzeption von Nachfragemodellen. Das Empfehlungspapier zielt unter anderem darauf ab, die Erwartungen und das Anspruchsniveau in Hinblick auf Sachgerechtigkeit der Modelle, die erzielbare Modellqualität und den Detaillierungsgrad der Modellaussagen zu harmonisieren.
Brain Hack
(2022)
Protagonistin des Films ist Cassandra Becker, eine 25-jährige Informatikstudentin und Mitglied der Hackerorganisation PFABW (Progress For a Better World). Sie hat es sich zum Ziel gesetzt, die Welt zu einem besseren Ort zu machen. Sie legt sich allerdings mit den falschen Leuten an und wird für die Verbreitung eines zerstörerischen Computervirus verantwortlich gemacht, der gesundheitliche Folgen für den Menschen mit sich bringt. Sie und ihr bester Freund Jake Fischer haben bei einem PFABW-Mitglied Zuflucht gefunden. Dort versuchen sie gemeinsam herauszufinden, was es mit dem mysteriösen Virus auf sich hat.
Historische Stoffe im Spielfilm
Zwischen Authentizität und Unterhaltung
Spielfilme über wahre Begebenheiten stellen sich der Herausforderung, historisch korrekte Darstellung mit einer spannenden und sehenswerten Präsentation zu kombinieren. Dies ist ein schwieriger Balance Akt, gerade bei Studentenprojekten mit geringem Budget.
Im Kurzfilm über Julius Erasmus, dem „Totengräber von Vossenack“, wurde sich dieser Aufgabe gestellt. Inhaltlich werden seine möglichen Beweggründe dargestellt, die ihn dazu brachten kurz nach dem 2. Weltkrieg zahlreiche gefallene Soldaten im ehemaligen Kampfgebiet im Hürtgenwald zu begraben. Die schriftliche Dokumentation des Projektes zeigt die Recherche des verfilmten Stoffes, Herausforderungen während der Produktion, sowie persönliche Eindrücke und Lerneffekte.
Letztendlich ist ein Werk entstanden, dass respektvoll mit der zu Grunde liegenden Geschichte umgeht und gleichsam ein cineastisches Erlebnis für den Zuschauer darstellt.
Ocean Care ist eine politisch unabhängige Non-Profit-Organisation mit Sitz in der Schweiz. Sie setzt sich seit 1989 für den Schutz von Meeressäugern und deren Lebensraum ein. Seit 2011 ist Ocean Care außerdem UN-Sonderberaterin für Fragen im Meeresschutz. Da Ocean Care die Öffentlichkeit für das Thema Meeresschutz sensibilisieren möchte und ihre Arbeit durch Spenden finanziert wird, ist ein professionelles, vertrauenerweckendes Erscheinungsbild unerlässlich. Durch ein zeitgemäßes und seriöses Design, welches sich von anderen Organisationen abhebt, kann die Zielgruppe erweitert und die Bedeutsamkeit der Arbeit hervorgehoben werden. Das neue Erscheinungsbild beruht auf der Idee, dass sich die Informationen unter der Meeresoberfläche befinden. Die Linie, die den Meeresspiegel visualisiert, dient außerdem medienübergreifend als Orientierungshilfe.
Endlich! Nach über zwei Jahren kulturellen Stillstands richtet der Musiknetzwerk Aachen e.V. ein Festival aus. Die Bachelorandin Jana Wetzlar übernimmt hierbei die Veranstaltungsplanung und -bewerbung. Der erste Teil der Arbeit umfasst die Erarbeitung eines einzigartigen Festivalkonzepts, bei dem die Förderung von jungen Newcomerkünstler:innen und die ökologische Nachhaltigkeit der Veranstaltung im Vordergrund stehen. Eine weitere Besonderheit stellt das paritätisch besetzte Künstler:innen-Line-Up dar. Im zweiten Teil der Arbeit wurden eine umfangreiche Werbekampagne sowie ein passendes Corporate Design entwickelt, die die Besonderheiten des Festivals hervorheben und viele Festivalbesucher:innen generieren sollen. Die übergeordneten Ziele der Arbeit bestehen darin, einen Beitrag zur gesellschaftlichen Etablierung des Musiknetzwerk Aachen e.V. zu leisten und die Voraussetzungen für ein jährlich wiederkehrendes Festival zu schaffen.
Seit 2002 ist der Tierschutz fest im Grundgesetz verankert, jedoch herrscht immer noch ein enormes Ungleichgewicht bei der letztendlichen Durchsetzung gegenüber der Tiernutzungsinteressen. Die Nichteinhaltung des Tierschutzes stellt nicht nur aus Tierwohlsicht, sondern auch aus Klimaschutzgründen eine ernst zu nehmende Problematik dar, welche wir nur gemeinsam angehen können. Die Gesellschaft sollte sich über das eigene Konsumverhalten bewusst werden, gleichermaßen müssen auch überzeugende Alternativen aufgezeigt werden. Thematisch ist die Arbeit in drei Teile gegliedert. Die Geschichte, das Recht der Tiere und die Zukunftsaussichten stehen hier im Fokus. Wichtig ist es, den Istzustand neutral darzustellen, um die Fakten nicht zu harmonisieren. Die Publikation soll nicht abschrecken, vielmehr soll sie die Leser:innen motivieren, Dinge ändern zu wollen. Denn nur miteinander können wir friedlich „koexistieren“.
Kouyou : Ort im Raum
(2022)
Selbstliebe, der Moment der Ruhe, sich eine mentale Pause erlauben und von allem bewusst abzuschalten, sind aktuelle Themen unserer Gesellschaft. Die Zeit, in der wir leben, bewegt sich in einer Geschwindigkeit, die alle unsere Sinne überlastet und uns nicht mehr erlaubt, selbst zuzuhören oder volle Momente der Ruhe zu erleben. Thema der Bachelorarbeit ist der Entwurf eines Sitzmöbels, welches inspiriert ist durch die sakralische Architektur. Der Stuhl soll das Gefühl von Umformung und Leichtigkeit vermitteln. Er ist aus Eiche gebaut und unterstützt den Menschen in seiner bewussten Sitzhaltung. Die Eiche ist ein Baum, der für Kraft, Durchhaltevermögen und Gerechtigkeit steht. Es heißt auch, wenn man eine Eiche sieht, sie umarmen soll, da sie heilende Kräfte hat. Hier ist aber die Eiche, die den Menschen symbolisch umarmen soll, wenn man auf ihr sitzt. Und somit spielen Architektur, Möbel und der Mensch eine spielende Rolle, und zwar ist es die menschliche Haltung im Raum.
Alte, geschichtsrelevante und thematisch angeordnete Objekte, welche man in den Vitrinen der Museen betrachten kann, das kennt sicher jeder. Doch wie kommen diese Artefakte eigentlich in die Vitrinen? Welche Menschen sind dafür verantwortlich, dass wir diese Kulturgüter bestaunen können? In diesem temporären Ausstellungskonzept für das Römisch-Germanische Museum Köln geht es darum, die sonst verborgene Arbeit der Restauratoren des Museums für die Besucher:innen sichtbar zu machen, ihnen genauere Einblicke in die Arbeit mit ihren Anforderungen zu geben und Restaurierungsprozesse auf zu zeigen. Diese Arbeit demonstriert, wie es abseits der Öffentlichkeit aussieht und wer dafür verantwortlich ist, dass wir einen Einblick in die vergangenen Zeit erhalten können. Das Projekt zeigt eine mögliche Bespielung des Museums, wie das Berufsbild der Restauratoren in die Dauerausstellung integriert werden könnte.
Nach drei Jahren ist der Anblick der beigen Kommode doch etwas langweilig geworden und es steht ein Tapetenwechsel an? Das ist noch lange kein Grund, neue Möbel kaufen zu müssen. Mit dem „BOBBI“-Regal lässt sich das Farbkonzept des Möbelstücks fortlaufend anpassen. Das reduzierte Grundgestell basiert auf einem einfachen Stecksystem und ermöglicht nicht nur einen schnellen, intuitiven Aufbau, sondern auch eine modulare Erweiterung des Regalsystems. Eintönig? Nein Danke! Zeitloses, langlebiges Design muss nicht schlicht und farblos sein! Der Schlüssel liegt in der Individualisierbarkeit. Mithilfe einer einfachen textilen Bespannungstechnik passt der Kunde das Gerüst nach seinen Vorstellungen an. Auf diese Weise kann der Charakter des Möbelstücks nicht nur farblich, sondern auch strukturell regelmäßig verändert werden und trägt zu einer nachhaltigen und achtsamen Raumgestaltung bei.
„Work Habitat“ ist eine markenorientierte Officelösung, die auf skalierbare Weise mit einem Start-up mitwächst und in Kooperation mit dem Unternehmen academa GmbH entstanden ist. Diese Brand Experience fördert Teambuilding und Identifikation mit dem Unternehmen. Sie passt sich an die Teammitglieder an, indem sie einen ganzheitlichen Blick auf das Office-System bewahrt. Ferner stellt sie eine nahtlose Verbindung digitaler und analoger Arbeitswelten dar und bietet eine einladende Umgebung verschiedener Arten zu Arbeiten an: von Deep-Focus bis zur kooperativen Zusammenarbeit und der Anregung zwangloser Begegnungen. Die modularen Komponenten können trotz Veränderungen, Umzügen oder unerwartet rasanten Entwicklungen nachhaltig und flexibel eingesetzt werden. Eine schnelllebige Welt erfordert eine angebrachte, sich ihr anpassende New-Work-Umgebung.
Kindertagesstätten bieten Kleinkindern den Zugang zu unbeschwertem und spielerischem Lernen. Was also, wenn schon der Eingangsbereich die Reizüberflutung bereit hält, der Stauraum der Entfaltung der Kinder nicht gerecht wird und ihre Eigenständigkeit ungefördert bleibt? Es kommt zu unzufriedenen Kindern und Frustration aller Beteilligten. "KIWA" ist das Garderobensystem für Kinder zur Stärkung der heranwachsenden Selbstständigkeit. Mithilfe von persönlichen Wiedererkennungsmerkmalen wird Eigenverantwortung geschult. Leicht und sicher zu erreichender Stauraum sorgt für Ordnung. Spielerisches lernen trotz Ordnung.
Der Mensch in seinen Welten – das Konzept des Rautenstrauch Joest Museums verfolgt den Ansatz des Kulturvergleichs und strebt im Zuge dessen die Betonung der Ebenbürtigkeit aller Kulturen an. Die Sammlung unterteilt sich nicht – wie gewohnt – anhand geografischer Gesichtspunkte, sondern behandelt Themen, die Menschen auf der ganzen Welt beschäftigen. Das in dieser Arbeit gestaltete neue Erscheinungsbild greift den veränderten gesellschaftlichen Stellenwert von ethnologischen Museen auf und positioniert das Museum als aktiven Diskussionsteilnehmer im Zuge des Postkolonialismus. Das entwickelte Key-Visual aus eigener Schrift, einheitlicher Rastersystematik und prägnantem Farbkonzept gibt einen Einblick darin, wie Menschen früher probiert haben, ihre Welt zu verstehen und sie zu erschließen.
Scriptum ist ein Interface mit Installationscharakter, welches die geschichtliche Entstehung von Schriftsystemen aus einer geochronologischen Perspektive darstellt. Die Installation wurde hauptsächlich für Museumsausstellungen konzipiert und besteht aus einer Wandprojektion, die durch iPads im Raum von mehreren Nutzern gleichzeitig gesteuert werden kann. Auf der Projektion sind alle 145 von Noto Sans unterstützten Schriftsysteme zu finden, die nach ihrer örtlichen Entstehung auf einer Weltkarte platziert wurden. Die Arbeit beruht auf dem wissenschaftlichen Datensatz aus dem Projekt „The World’s Writing Systems“ aufrufbar unter www.worldswritingsystems.org.
Neben dem Informierungszweck dient die Installation auch als ein Ausrufezeichen für die Idee, dass Schrift ein wichtiger Aspekt unseres Kulturerbes ist und als ein Spiegel für die Evolution der Menschheit betrachtet werden kann.
Herzinsuffizienz ist eine der häufigsten Herzerkrankungen in Deutschland. Sie ist fortschreitend und nicht heilbar. Der Krankheitsverlauf ist geprägt von plötzlichen, z.T. lebensbedrohlichen Verschlechterungen und Krankenhauseinweisungen, nach denen die Leistung des Herzen vermindert bleibt. Diese Dekompensationen lassen sich bisher im heimischen Umfeld nicht durch Messwerte vorhersehen.
Dieses Gerät bestimmt die Flüssigkeitsansammlungen in der Lunge, die ein mittelfristiges Symptom einer Dekompensation sind. Außerdem misst es über einen Hautsensor die im Schweiß enthaltene Menge eines Proteins, das bei Überdehnung des Herzmuskels vermehrt im Blutplasma zu finden ist.
So können Dekompensationen bis zu zwei Wochen vor einem akuten Ereignis detektiert und behandelt werden. Außerdem gibt es tagesformabhängige Tipps für die Alltagsgestaltung mit der Erkrankung.
Die Telekommunikationsindustrie hat in den letzten Jahrzehnten einen enormen Wandel vollzogen. Für Telekommunikationsunternehmen erfordert dies fundamentale Umstrukturierungen von Strategie, Prozessen, Anwendungssystemen und Netzwerktechnologien. Dabei spielen Unternehmensarchitekturen und Referenzmodelle eine wichtige Rolle. Zwar existieren in der Praxis anerkannte Referenzmodelle, aber wie sind diese für eine systematische Transformation zu gestalten? Wie sieht eine konkrete Lösung für die Telekommunikationsindustrie aus?
Als Antwort stellt Christian Czarnecki in seinem Buch eine referenzmodellbasierte Unternehmensarchitektur vor. Basierend auf einer umfangreichen Untersuchung von Transformationsprojekten werden Probleme und Anforderungen der Praxis identifiziert, für die mit Methoden der Unternehmenstransformation, Referenzmodellierung und Unternehmensarchitektur ein Lösungsvorschlag entwickelt und evaluiert wird. Dieser besteht u. a. aus detaillierten Anwendungsfällen, Referenzprozessabläufen, einer Zuordnung von Prozessen zu Anwendungssystemen sowie Handlungsempfehlungen zur Virtualisierung.
Für Wissenschaftler und Studierende der Wirtschaftsinformatik zeigt das Buch neue Erkenntnisse einer anwendungsorientierten Referenzmodellierung. Für Praktiker liefert es eine methodisch fundierte Lösung für die aktuellen Transformationsbedarfe der Telekommunikationsindustrie. Christian Czarnecki arbeitet seit 2004 als Unternehmensberater und hat viele Telekommunikationsunternehmen bei deren Transformation begleitet. In 2013 erfolgte die Promotion zum Doktoringenieur an der Otto-von-Guericke-Universität Magdeburg.
This book reflects the tremendous changes in the telecommunications industry in the course of the past few decades – shorter innovation cycles, stiffer competition and new communication products. It analyzes the transformation of processes, applications and network technologies that are now expected to take place under enormous time pressure. The International Telecommunication Union (ITU) and the TM Forum have provided reference solutions that are broadly recognized and used throughout the value chain of the telecommunications industry, and which can be considered the de facto standard. The book describes how these reference solutions can be used in a practical context: it presents the latest insights into their development, highlights lessons learned from numerous international projects and combines them with well-founded research results in enterprise architecture management and reference modeling. The complete architectural transformation is explained, from the planning and set-up stage to the implementation. Featuring a wealth of examples and illustrations, the book offers a valuable resource for telecommunication professionals, enterprise architects and project managers alike.
How does the implementation of a next generation network influence a telecommunication company?
(2009)
As the potential of a Next Generation Network (NGN) is recognized, telecommunication companies consider switching to it. Although the implementation of an NGN seems to be merely a modification of the network infrastructure, it may trigger or require changes in the whole company and even influence the company strategy. To capture the effects of NGN we propose a framework based on concepts of business engineering and technical recommendations for the introduction of NGN technology. The specific design of solutions for the layers "Strategy", "Processes" and "Information Systems" as well as their interdependencies are an essential characteristic of the developed framework. We have per-formed a case study on NGN implementation and observed that all layers captured by our framework are influenced by the introduction of an NGN.
Durch die Fragmentierung von Wertschöpfungsketten ergeben sich neue Herausforderungen für das Management von Kundenbeziehungen. Die Dissertation untersucht die daraus resultierenden Anforderungen an eine übergreifende Integration von Customer Relationship Management in der
Telekommunikationsindustrie. Ziel ist es, durch Anwendung von Methoden eines Enterprise Architecture Framework eine übergreifend Lösung zu gestalten. Grundlegende Prämisse dabei ist, dass die übergreifende Gestaltung eines Customer Relationship Management für alle an der
Wertschöpfung beteiligten Unternehmen vorteilhaft ist.
Market changes have forced telecommunication companies to transform their business. Increased competition, short innovation cycles, changed usage patterns, increased customer expectations and cost reduction are the main drivers. Our objective is to analyze to what extend transformation projects have improved the orientation towards the end-customers. Therefore, we selected 38 real-life case studies that are dealing with customer orientation. Our analysis is based on a telecommunication-specific framework that aligns strategy, business processes and information systems. The result of our analysis shows the following: transformation projects that aim to improve the customer orientation are combined with clear goals on costs and revenue of the enterprise. These projects are usually directly linked to the customer touch points, but also to the development and provisioning of products. Furthermore, the analysis shows that customer orientation is not the sole trigger for transformation. There is no one-fits-all solution; rather, improved customer orientation needs aligned changes of business processes as well as information systems related to different parts of the company.
Die Veränderungen des Telekommunikationsmarktes haben in der Praxis zu einer Vielzahl von Transformationsprojekten geführt. Was gehört aber zu einem “Transformationsprojekt”, welche Prozesse und Systeme werden verändert? Zur Beantwortung dieser Frage haben wir 184 Berichte zu Projekten analysiert, die als "Transformationsprojekte" bezeichnet waren. Für die Analyse haben wir einen Kodierungsrahmen konzipiert und anhand dessen die Berichte mit einem hierarchischen Clustering-Verfahren in Themen gruppiert. Die Ergebnisse liefern Hinweise über die in der Praxis gesetzten Schwerpunkte und Prioritäten. Sie können
somit als Unterstützung für Unternehmen dienen, die ein Transformationsprojekt planen. Sie weisen zudem darauf hin, in welchen Bereichen eines Unternehmens Unterstützung durch wissenschaftlich erprobte Werkzeuge und Modelle nötig ist.
Development of a subject-oriented reference process model for the telecommunications industry
(2016)
Generally the usage of reference models can be structured top-down or bottom-up. The practical need of agile change and flexible organizational implementation requires a consistent mapping to an operational level. In this context, well-established reference process models are typically structured top-down. The subject-oriented Business Process Management (sBPM) offers a modeling concept that is structured bottom-up and concentrates on the process actors on an
operational level. This paper applies sBPM to the enhanced Telecom Operations Map (eTOM), a well-accepted reference process model in the telecommunications industry. The resulting design artifact is a concrete example for a combination of a bottom-up and top-down developed reference model. The results are evaluated and confirmed in practical context through the involvement of the industry body TMForum.
Zur Unterstützung des Transformationsbedarfs von Telekommunikationsunternehmen sind die Referenzmodelle des TM Forums in der Praxis weltweit anerkannt. Dabei findet jedoch meist eine losgelöste Nutzung für spezifische Einzelthemen statt. Daher führt dieser Artikel die bestehenden Inhalte in einer industriespezifischen, übergreifenden Referenzarchitektur zusammen. Der Fokus liegt auf den Ebenen Aufbauorganisation, Prozesse, Applikationen und Daten. Darüber hinaus werden inhaltliche Architekturdomänen zur Strukturierung angeboten. Die Referenzarchitektur ist hierarchisch aufgebaut und wird hier beispielhaft für ausgewählte, aggregierte Inhalte beschrieben. Als erste Evaluation wird die Anwendung der Referenzarchitektur in drei Praxisprojekten erläutert.
The telecommunications industry is currently going through a major transformation. In this context, the enhanced Telecom Operations Map (eTOM) is a domain-specific process reference model that is offered by the industry organization TM Forum. In practice, eTOM is well accepted and confirmed as de facto standard. It provides process definitions and process flows on different levels of detail. This article discusses the reference modeling of eTOM, i.e., the design, the resulting artifact, and its evaluation based on three project cases. The application of eTOM in three projects illustrates the design approach and concrete models on strategic and operational levels. The article follows the Design Science Research (DSR) paradigm. It contributes with concrete design artifacts to the transformational needs of the telecommunications industry and offers lessons-learned from a general DSR perspective.
Primäre Ziele des Internets der Dinge sind die Steuerung physischer Gegenstände aus der Distanz und das Erfassen von Informationen aus dem Umfeld dieser Gegenstände. Dazu werden Hardwarekomponenten in Gegenstände des täglichen Lebens und die Umwelt integriert. Mithilfe von Informations- und Kommunikationstechnologien entsteht hieraus das Internet der Dinge (Internet of Things, IoT). Vor einem Jahr wurde mit Narrowband Internet of Things (NB-IoT) eine Technologie die es ermöglicht, Hardwarekomponenten energieeffizient und unmittelbar über das Mobilfunknetz zu vernetzen. Gegenstände werden dadurch über große Reichweiten eigenständig kommunikationsfähig. Das IoT steht mit NB-IoT vor einem gestiegenen Nutzenpotenzial, da eine zunehmende Anzahl miteinander verbundener Gegenstände und der Austausch größerer Datenmengen realisierbar sind. Damit sind aus wirtschaftlicher Sicht neue, innovative Anwendungsfälle des IoT möglich, die auch bereits in der Praxis diskutiert werden. In diesem Beitrag wird anhand eines konkreten Anwendungsfalls untersucht, welche neuen Geschäfts- bzw. Partnermodelle durch die gemeinsame Nutzung von NB-IoT-Daten und Big Data-Technologien entstehen und welcher qualitative Mehrwert für die an einem Anwendungsfall beteiligten Stakeholder geschaffen wird. Dazu wird – einem konstruktionsorientierten Forschungsansatz folgend – ein Bewertungsrahmen zur qualitativen Wertschöpfungsanalyse von NB-IoT entwickelt, der u.a. auf der Schablone nach Cockburn und dem Business Model Canvas basiert. Anhand dieses Bewertungsrahmens wird ein Anwendungsfall untersucht, der in anonymisierter Form an konkrete Praxisprojekte angelehnt ist. Konkret wird ein Anwendungsfall betrachtet, der einen Fahrradverleih 2.0 basierend auf dem Einsatz von NB-IoT vorschlägt. Aus den Untersuchungsergebnissen gehen beispielsweise Erkenntnisse hervor, wie Geschäftsmodelle auf
Kritische Infrastrukturen sind primäre Ziele krimineller Hacker. Der Deutsche Bundestag reagierte darauf am 25. Juli 2015 mit einem Gesetz zur Verbesserung der Sicherheit von ITSystemen, dem IT-Sicherheitsgesetz. Dies verlangt von Betreibern kritischer Infrastrukturen, angemessene Mindeststandards für organisatorische und technische Sicherheit zu implementieren, um den Betrieb und die Verfügbarkeit dieser Infrastruktur zu gewährleisten. Telekommunikationsunternehmen sind einerseits von diesem Gesetz in besonderem Maße betroffen und verfügen andererseits mit dem Rahmenwerk enhanced Telecom Operations Map (eTOM) über ein international anerkanntes Referenzmodell zur Gestaltung von Geschäftsprozessen in dieser Branche. Da sämtliche Telekommunikationsunternehmen in Deutschland verpflichtet sind, das Gesetz innerhalb eines bestimmten Zeitrahmens zu implementieren, präsentiert dieser Beitrag einen Vorschlag zur Erweiterung von eTOM um die relevanten Anforderungen des deutschen IT-Sicherheitsgesetzes.
Momentan finden in vielen Branchen umfassende Veränderungen von Märkten und Wertschöpfungsketten statt, welche auch als Digitale Transformation bezeichnet werden. In diesem Zusammenhang wird das Internet der Dinge (Internet of Things, IoT) als ein wichtiger technischer Enabler der Veränderungen angesehen. Primäre Ziele des IoT sind die Steuerung physischer Gegen-stände aus der Distanz und das Erfassen von Informationen aus dem Umfeld dieser Gegenstände. Welche neuen Geschäfts-bzw. Partnermodelle entstehen durch die gemeinsame Nutzung von IoT-Daten und Big-Data-Technologien und welcher qualitative Mehrwert wird dadurch geschaffen? Als Antwort wird in diesem Beitrag ein Bewertungsrahmen zur qualitativen Wertschöpfungsanalyse von IoT vorgeschlagen. Anhand dieses Bewertungsrahmens wird ein Anwendungsfall untersucht, der in anonymisierter Form an konkrete Praxisprojekte angelehnt ist. Konkret wird ein Anwendungsfall betrachtet, der eine Abfallwirtschaft 2.0 basierend auf dem Einsatz von IoT vorschlägt. Aus den Untersuchungsergebnissen gehen beispielsweise Erkenntnisse hervor, wie Geschäftsmodelle auf Basis eines unentgeltlichen Informationsaustauschs durch IoT gestaltet werden können.
The potential of electronic markets in enabling innovative product bundles through flexible and sustainable partnerships is not yet fully exploited in the telecommunication industry. One reason is that bundling requires seamless de-assembling and re-assembling of business processes, whilst processes in telecommunication companies are often product-dependent and hard to virtualize. We propose a framework for the planning of the virtualization of processes, intended to assist the decision maker in prioritizing the processes to be virtualized: (a) we transfer the virtualization pre-requisites stated by the Process Virtualization Theory in the context of customer-oriented processes in the telecommunication industry and assess their importance in this context, (b) we derive IT-oriented requirements for the removal of virtualization barriers and highlight their demand on changes at different levels of the organization. We present a first evaluation of our approach in a case study and report on lessons learned and further steps to be performed.
As the potential of a next generation network (NGN) is recognised, telecommunication companies consider switching to it. Although the implementation of an NGN seems to be merely a modification of the network infrastructure, it may trigger or require changes in the whole company, because it builds upon the separation between service and transport, a flexible bundling of services to products and the streamlining of the IT infrastructure. We propose a holistic framework, structured into the layers ‘strategy’, ‘processes’ and ‘information systems’ and incorporate into each layer all concepts necessary for the implementation of an NGN, as well as the alignment of these concepts. As a first proof-of-concept for our framework we have performed a case study on the introduction of NGN in a large telecommunication company; we show that our framework captures all topics that are affected by an NGN implementation.
Der Telekommunikationsmarkt erfährt substanzielle Veränderungen. Neue Geschäftsmodelle, innovative Dienstleistungen und Technologien erfordern Reengineering, Transformation und Prozessstandardisierung. Mit der Enhanced Telecom Operation Map (eTOM) bietet das TM Forum ein international anerkanntes de facto Referenz-Prozess-Framework basierend auf spezifischen Anforderungen und Ausprägungen der Telekommunikationsindustrie an. Allerdings enthält dieses Referenz-Framework nur eine hierarchische Sammlung von Prozessen auf unterschiedlichen Abstraktionsebenen. Eine Kontrollsicht verstanden als sequenzielle Anordnung von Aktivitäten und daraus resultierend ein realer Prozessablauf fehlt ebenso wie eine Ende-zu-Ende-Sicht auf den Kunden. In diesem Artikel erweitern wir das eTOM-Referenzmodell durch Referenzprozessabläufe, in welchen wir das Wissen über Prozesse in Telekommunikationsunternehmen abstrahieren und generalisieren. Durch die Referenzprozessabläufe werden Unternehmen bei dem strukturierten und transparenten (Re-)Design ihrer Prozesse unterstützt. Wir demonstrieren die Anwendbarkeit und Nützlichkeit unserer Referenzprozessabläufe in zwei Fallstudien und evaluieren diese anhand von Kriterien für die Bewertung von Referenzmodellen. Die Referenzprozessabläufe wurden vom TM Forum in den Standard aufgenommen und als Teil von eTOM Version 9 veröffentlicht. Darüber hinaus diskutieren wir die Komponenten unseres Ansatzes, die auch außerhalb der Telekommunikationsindustrie angewandt werden können.
Das anhaltende Wachstum wissenschaftlicher Veröffentlichungen wirft die Fragestellung auf, wie Literaturana-lysen im Rahmen von Forschungsprozessen digitalisiert und somit produktiver realisiert werden können. Insbesondere in informationstechnischen Fachgebieten ist die Forschungspraxis durch ein rasant wachsendes Publikationsaufkommen gekennzeichnet. Infolgedessen bietet sich der Einsatz von Methoden der Textanalyse (Text Analytics) an, die Textdaten automatisch vorbereiten und verarbeiten können. Erkenntnisse entstehen dabei aus Analysen von Wortarten und Subgruppen, Korrelations- sowie Zeitreihenanalysen. Dieser Beitrag stellt die Konzeption und Realisierung eines Prototypen vor, mit dem Anwender bibliographische Daten aus der etablierten Literaturdatenbank EBSCO Discovery Service mithilfe textanalytischer Methoden erschließen können. Der Prototyp basiert auf dem Analysesystem IBM Watson Explorer, das Hochschulen lizenzkostenfrei zur Verfügung steht. Potenzielle Adressaten des Prototypen sind Forschungseinrichtungen, Beratungsunternehmen sowie Entscheidungsträger in Politik und Unternehmenspraxis.
Im Rahmen der Digitalisierung ist die zunehmende Automatisierung von bisher manuellen Prozessschritten ein Aspekt, der massive Auswirkungen auf die zukünftige Arbeitswelt haben wird. In diesem Kontext werden an den Einsatz von Softwarerobotern zur Prozessautomatisierung hohe Erwartungen geknüpft. Bei den Implementierungsansätzen wird die Diskussion aktuell insbesondere durch Robotic Process Automation (RPA) und Chatbots geprägt. Beide Ansätze verfolgen das gemeinsame Ziel einer 1:1-Automatisierung von menschlichen Handlungen und dadurch ein direktes Ersetzen von Mitarbeitern durch Maschinen. Bei RPA werden Prozesse durch Softwareroboter erlernt und automatisiert ausgeführt. Dabei emulieren RPA-Roboter die Eingaben auf der bestehenden Präsentationsschicht, so dass keine Änderungen an vorhandenen Anwendungssystemen notwendig sind. Am Markt werden bereits unterschiedliche RPA-Lösungen als Softwareprodukte angeboten. Durch Chatbots werden Ein- und Ausgaben von Anwendungssystemen über natürliche Sprache realisiert. Dadurch ist die Automatisierung von unternehmensexterner Kommunikation (z. B. mit Kunden) aber auch von unternehmensinternen Assistenztätigkeiten möglich. Der Beitrag diskutiert die Auswirkungen von Softwarerobotern auf die Arbeitswelt anhand von Anwendungsbeispielen und erläutert die unternehmensindividuelle Entscheidung über den Einsatz von Softwarerobotern anhand von Effektivitäts- und Effizienzzielen.
Angesichts des anhaltenden Wachstums wissenschaftlicher Veröffentlichungen werden Instrumente benötigt, um Literaturanalysen durch Digitalisierung produktiver zu gestalten. Dieser Beitrag stellt einen Ansatz vor, der bibliographische Daten aus der Literaturdatenbank EBSCO Discovery Service mithilfe von Text-Analytics-Methoden erschließt. Die Lösung basiert auf dem Textanalysesystem IBM Watson Explorer und eignet sich für explorative Literaturanalysen, um beispielsweise den Status quo emergierender Technologiefelder in der Literatur zu reflektieren. Die generierten Ergebnisse sind in den Kontext der zunehmenden Werkzeugunterstützung des Literaturrechercheprozesses einzuordnen und können für intra- sowie interinstitutionelle Wissenstransferprozesse in Forschungs- und Beratungskontexten genutzt werden.
Am Beispiel der Telekommunikationsindustrie zeigt der Beitrag eine konkrete Ausgestaltung anwendungsorientierter Forschung, die sowohl für die Praxis als auch für die Wissenschaft nutzen- und erkenntnisbringend ist. Forschungsgegenstand sind die Referenzmodelle des Industriegremiums TM Forum, die von vielen Telekommunikationsunternehmen zur Transformation ihrer Strukturen und Systeme genutzt werden. Es wird die langjährige Forschungstätigkeit bei der Weiterentwicklung und Anwendung dieser Referenzmodelle beschrieben. Dabei wird ein konsequent gestaltungsorientierter Forschungsansatz verfolgt. Das Zusammenspiel aus kontinuierlicher Weiterentwicklung in Zusammenarbeit mit einem Industriegremium und der Anwendung in vielfältigen Praxisprojekten führt zu einer erfolgreichen Symbiose aus praktischer Nutzengenerierung sowie wissenschaftlichem Erkenntnisgewinn. Der Beitrag stellt den gewählten Forschungsansatz anhand konkreter Beispiele vor. Darauf basierend werden Empfehlungen und Herausforderungen für eine gestaltungs- und praxisorientierte Forschung diskutiert.
The molecular weight properties of lignins are one of the key elements that need to be analyzed for a successful industrial application of these promising biopolymers. In this study, the use of 1H NMR as well as diffusion-ordered spectroscopy (DOSY NMR), combined with multivariate regression methods, was investigated for the determination of the molecular weight (Mw and Mn) and the polydispersity of organosolv lignins (n = 53, Miscanthus x giganteus, Paulownia tomentosa, and Silphium perfoliatum). The suitability of the models was demonstrated by cross validation (CV) as well as by an independent validation set of samples from different biomass origins (beech wood and wheat straw). CV errors of ca. 7–9 and 14–16% were achieved for all parameters with the models from the 1H NMR spectra and the DOSY NMR data, respectively. The prediction errors for the validation samples were in a similar range for the partial least squares model from the 1H NMR data and for a multiple linear regression using the DOSY NMR data. The results indicate the usefulness of NMR measurements combined with multivariate regression methods as a potential alternative to more time-consuming methods such as gel permeation chromatography.
In this study, a recently proposed NMR standardization approach by 2H integral of deuterated solvent for quantitative multicomponent analysis of complex mixtures is presented. As a proof of principle, the existing NMR routine for the analysis of Aloe vera products was modified. Instead of using absolute integrals of targeted compounds and internal standard (nicotinamide) from 1H-NMR spectra, quantification was performed based on the ratio of a particular 1H-NMR compound integral and 2H-NMR signal of deuterated solvent D2O. Validation characteristics (linearity, repeatability, accuracy) were evaluated and the results showed that the method has the same precision as internal standardization in case of multicomponent screening. Moreover, a dehydration process by freeze drying is not necessary for the new routine. Now, our NMR profiling of A. vera products needs only limited sample preparation and data processing. The new standardization methodology provides an appealing alternative for multicomponent NMR screening. In general, this novel approach, using standardization by 2H integral, benefits from reduced sample preparation steps and uncertainties, and is recommended in different application areas (purity determination, forensics, pharmaceutical analysis, etc.).
The investigation of the possibility to determine various characteristics of powder heparin (n = 115) was carried out with infrared spectroscopy. The evaluation of heparin samples included several parameters such as purity grade, distributing company, animal source as well as heparin species (i.e. Na-heparin, Ca-heparin, and heparinoids). Multivariate analysis using principal component analysis (PCA), soft independent modelling of class analogy (SIMCA), and partial least squares – discriminant analysis (PLS-DA) were applied for the modelling of spectral data. Different pre-processing methods were applied to IR spectral data; multiplicative scatter correction (MSC) was chosen as the most relevant.
Obtained results were confirmed by nuclear magnetic resonance (NMR) spectroscopy. Good predictive ability of this approach demonstrates the potential of IR spectroscopy and chemometrics for screening of heparin quality. This approach, however, is designed as a screening tool and is not considered as a replacement for either of the methods required by USP and FDA.
Quantitative nuclear magnetic resonance (qNMR) is routinely performed by the internal or external standardization. The manuscript describes a simple alternative to these common workflows by using NMR signal of another active nuclei of calibration compound. For example, for any arbitrary compound quantification by NMR can be based on the use of an indirect concentration referencing that relies on a solvent having both 1H and 2H signals. To perform high-quality quantification, the deuteration level of the utilized deuterated solvent has to be estimated.
In this contribution the new method was applied to the determination of deuteration levels in different deuterated solvents (MeOD, ACN, CDCl3, acetone, benzene, DMSO-d6). Isopropanol-d6, which contains a defined number of deuterons and protons, was used for standardization. Validation characteristics (precision, accuracy, robustness) were calculated and the results showed that the method can be used in routine practice. Uncertainty budget was also evaluated. In general, this novel approach, using standardization by 2H integral, benefits from reduced sample preparation steps and uncertainties, and can be applied in different application areas (purity determination, forensics, pharmaceutical analysis, etc.).
Heparin is a natural polysaccharide, which plays essential role in many biological processes. Alterations in building blocks can modify biological roles of commercial heparin products, due to significant changes in the conformation of the polymer chain. The variability structure of heparin leads to difficulty in quality control using different analytical methods, including infrared (IR) spectroscopy. In this paper molecular modelling of heparin disaccharide subunits was performed using quantum chemistry. The structural and spectral parameters of these disaccharides have been calculated using RHF/6-311G. In addition, over-sulphated chondroitin sulphate disaccharide was studied as one of the most widespread contaminants of heparin. Calculated IR spectra were analyzed with respect to specific structure parameters. IR spectroscopic fingerprint was found to be sensitive to substitution pattern of disaccharide subunits. Vibrational assignments of calculated spectra were correlated with experimental IR spectral bands of native heparin. Chemometrics was used to perform multivariate analysis of simulated spectral data.
Lignin is a promising renewable biopolymer being investigated worldwide as an environmentally benign substitute of fossil-based aromatic compounds, e.g. for the use as an excipient with antioxidant and antimicrobial properties in drug delivery or even as active compound. For its successful implementation into process streams, a quick, easy, and reliable method is needed for its molecular weight determination. Here we present a method using 1H spectra of benchtop as well as conventional NMR systems in combination with multivariate data analysis, to determine lignin’s molecular weight (Mw and Mn) and polydispersity index (PDI). A set of 36 organosolv lignin samples (from Miscanthus x giganteus, Paulownia tomentosa and Silphium perfoliatum) was used for the calibration and cross validation, and 17 samples were used as external validation set. Validation errors between 5.6% and 12.9% were achieved for all parameters on all NMR devices (43, 60, 500 and 600 MHz). Surprisingly, no significant difference in the performance of the benchtop and high-field devices was found. This facilitates the application of this method for determining lignin’s molecular weight in an industrial environment because of the low maintenance expenditure, small footprint, ruggedness, and low cost of permanent magnet benchtop NMR systems.
NMR standardization approach that uses the 2H integral of deuterated solvent for quantitative multinuclear analysis of pharmaceuticals is described. As a proof of principle, the existing NMR procedure for the analysis of heparin products according to US Pharmacopeia monograph is extended to the determination of Na+ and Cl- content in this matrix. Quantification is performed based on the ratio of a 23Na (35Cl) NMR integral and 2H NMR signal of deuterated solvent, D2O, acquired using the specific spectrometer hardware. As an alternative, the possibility of 133Cs standardization using the addition of Cs2CO3 stock solution is shown. Validation characteristics (linearity, repeatability, sensitivity) are evaluated. A holistic NMR profiling of heparin products can now also be used for the quantitative determination of inorganic compounds in a single analytical run using a single sample. In general, the new standardization methodology provides an appealing alternative for the NMR screening of inorganic and organic components in pharmaceutical products.
Although several successful applications of benchtop nuclear magnetic resonance (NMR) spectroscopy in quantitative mixture analysis exist, the possibility of calibration transfer remains mostly unexplored, especially between high- and low-field NMR. This study investigates for the first time the calibration transfer of partial least squares regressions [weight average molecular weight (Mw) of lignin] between high-field (600 MHz) NMR and benchtop NMR devices (43 and 60 MHz). For the transfer, piecewise direct standardization, calibration transfer based on canonical correlation analysis, and transfer via the extreme learning machine auto-encoder method are employed. Despite the immense resolution difference between high-field and low-field NMR instruments, the results demonstrate that the calibration transfer from high- to low-field is feasible in the case of a physical property, namely, the molecular weight, achieving validation errors close to the original calibration (down to only 1.2 times higher root mean square errors). These results introduce new perspectives for applications of benchtop NMR, in which existing calibrations from expensive high-field instruments can be transferred to cheaper benchtop instruments to economize.
The continuing growth of scientific publications raises the question how research processes can be digitalized and thus realized more productively. Especially in information technology fields, research practice is characterized by a rapidly growing volume of publications. For the search process various information systems exist. However, the analysis of the published content is still a highly manual task. Therefore, we propose a text analytics system that allows a fully digitalized analysis of literature sources. We have realized a prototype by using EBSCO Discovery Service in combination with IBM Watson Explorer and demonstrated the results in real-life research projects. Potential addressees are research institutions, consulting firms, and decision-makers in politics and business practice.
The initial idea of Robotic Process Automation (RPA) is the automation of business processes through the presentation layer of existing application systems. For this simple emulation of user input and output by software robots, no changes of the systems and architecture is required. However, considering strategic aspects of aligning business and technology on an enterprise level as well as the growing capabilities of RPA driven by artificial intelligence, interrelations between RPA and Enterprise Architecture (EA) become visible and pose new questions. In this paper we discuss the relationship between RPA and EA in terms of perspectives and implications. As workin- progress we focus on identifying new questions and research opportunities related to RPA and EA.
The initial idea of Robotic Process Automation (RPA) is the automation of business processes through a simple emulation of user input and output by software robots. Hence, it can be assumed that no changes of the used software systems and existing Enterprise Architecture (EA) is
required. In this short, practical paper we discuss this assumption based on a real-life implementation project. We show that a successful RPA implementation might require architectural work during analysis, implementation, and migration. As practical paper we focus on exemplary lessons-learned and new questions related to RPA and EA.
Digital twins enable the modeling and simulation of real-world entities (objects, processes or systems), resulting in improvements in the associated value chains. The emerging field of quantum computing holds tremendous promise forevolving this virtualization towards Quantum (Digital) Twins (QDT) and ultimately Quantum Twins (QT). The quantum (digital) twin concept is not a contradiction in terms - but instead describes a hybrid approach that can be implemented using the technologies available today by combining classicalcomputing and digital twin concepts with quantum processing. This paperpresents the status quo of research and practice on quantum (digital) twins. It alsodiscuses their potential to create competitive advantage through real-timesimulation of highly complex, interconnected entities that helps companies better
address changes in their environment and differentiate their products andservices.
Reliable methods for automatic readability assessment have the potential to impact a variety of fields, ranging from machine translation to self-informed learning. Recently, large language models for the German language (such as GBERT and GPT-2-Wechsel) have become available, allowing to develop Deep Learning based approaches that promise to further improve automatic readability assessment. In this contribution, we studied the ability of ensembles of fine-tuned GBERT and GPT-2-Wechsel models to reliably predict the readability of German sentences. We combined these models with linguistic features and investigated the dependence of prediction performance on ensemble size and composition. Mixed ensembles of GBERT and GPT-2-Wechsel performed better than ensembles of the same size consisting of only GBERT or GPT-2-Wechsel models. Our models were evaluated in the GermEval 2022 Shared Task on Text Complexity Assessment on data of German sentences. On out-of-sample data, our best ensemble achieved a root mean squared error of 0:435.
Acknowledging that a diverse workforce could be a potential source of innovation, the current research deals with the fine details of why diversity management is central to achieving innovation in heterogeneous research groups and how this could be effectively realized in an organization. The types of heterogeneities addressed mainly include gender, qualification, academic discipline and intercultural perspectives. The type of organization being dealt with in this work is a complex association of research institutes at a technical university in Germany (RWTH Aachen University), namely a 'Cluster of Excellence', whereby several institutes of the university work collaboratively in different sub-projects. The 'Cluster of Excellence' is a part of the 'Excellence Initiative' of the German federal and state governments German Research Foundation (DFG) and German Council of Science and Humanities, with the ultimate aim of promoting cutting-edge research. To support interdisciplinary collaboration and thus the performance of the cluster, the development of a diversity and innovation management concept is presently in the conceptual phase and will be described in the frame of this paper. The 3-S-Diversity Model, composed of the three elements: skills, structure and strategy, serves as a basis for the development of the concept. The proposed concept consists of six phases; the first two phases lay the ground work by developing an understanding of the status quo on the forms of diversity in the Cluster of Excellence, the type of organizational structure of the member institutes and the varieties of specialist work cultures of the same. The third and the fourth phases build up on this foundation by means of qualitative and quantitative studies. While the third phase deals with the sensitization of the management level to the close connection between diversity and innovation; the need to manage them thereafter and find tailor-made methods of doing so, the fourth phase shall mainly focus on the mindset of the employees in this regard. The fifth phase shall consolidate the learnings and the ideas developed in the course of the first four phases into an implementable strategy. The ultimate phase shall be the implementation of this concept in the Cluster. The first three phases have been accomplished successfully and the preliminary results are already available.