Refine
Year of publication
- 2018 (84) (remove)
Institute
- Fachbereich Wirtschaftswissenschaften (18)
- Fachbereich Maschinenbau und Mechatronik (14)
- Fachbereich Bauingenieurwesen (8)
- Fachbereich Elektrotechnik und Informationstechnik (8)
- Fachbereich Architektur (7)
- Fachbereich Energietechnik (7)
- Fachbereich Medizintechnik und Technomathematik (7)
- Fachbereich Luft- und Raumfahrttechnik (5)
- Fachbereich Chemie und Biotechnologie (4)
- Fachbereich Gestaltung (4)
Has Fulltext
- no (84) (remove)
Language
- German (84) (remove)
Document Type
- Article (41)
- Part of a Book (16)
- Conference Proceeding (12)
- Book (8)
- Conference: Meeting Abstract (2)
- Patent (2)
- Other (1)
- Report (1)
- Working Paper (1)
Keywords
- Datenschutz (2)
- Digitale Transformation (2)
- Literaturanalyse (2)
- Bahadur efficiency (1)
- Cloud Computing (1)
- Datenschutzgrundverordnung (1)
- Datenschutzrecht (1)
- EBSCO Discovery Service (1)
- EU-DS-GVO (1)
- EUDSGVO (1)
Is part of the Bibliography
- no (84)
Aufgrund von EU-Regularien und Umweltinitiativen wächst der Markt für nachhaltige und abbaubare Klebstoffe stetig. Organosolv (OS)-Lignin ist ein kommerziell wenig ertragreicher Nebenstrom der Lignocellulose-Bioraffinerie. Durch das "Nachahmen" der Adhäsionseigenschaften mit strukturverwandten Muschel-Aminosäuren soll OS-Lignin in einen starkes, vollständig biobasiertes Adhäsiv umgewandelt werden. Funktionsweisend für die Adhäsion des Muschelklebstoffes ist die Catecholgruppe der Aminosäure L-DOPA. Die laccase-katalysierte Polymerisationsreaktion von Lignin und L-DOPA ist schwierig zu kontrollieren, da L-DOPA eine Ringschlussreaktion eingeht. Stattdessen wurde eine zweistufige Reaktion mit einem Diamin als Ankermolekül etabliert. Die Catecholgruppe, die im zweiten Schritt enzymatisch an das Lignin-Amin gebunden wird, kann durch Komplexbildung mit Fe(III)-Ionen sowohl zur Adhäsion als auch zur Kohäsion des Klebstoffes beitragen. Der Lignin-Catechol-Klebstoff ist frei von petrochemischen Chemikalien und biologisch abbaubar. In ersten Stirnzugversuchen konnte eine Haftkraft von 0,3 MPa erreicht werden.
Im Rahmen des europäischen Verbundprojekts INSYSME wurden von den deutschen Partnern die Systeme IMES und INODIS zur Verbesserung des seismischen Verhaltens von ausgefachten Stahlbetonrahmen entwickelt. Ziel beider Systeme ist es, Stahlbetonrahmen und Ausfachung zu entkoppeln, anstatt die Tragfähigkeit durch aufwendige und kostspielige zusätzliche Bewehrungseinlagen zu erhöhen. Erste Ergebnisse des Systems IMES für Belastungen in und senkrecht zu der Wandebene werden vorgestellt.
Im Rahmen des europäischen Verbundprojekts INSYSME wurden von den deutschen Partnern die Systeme IMES und INODIS zur Verbesserung des seismischen Verhaltens von ausgefachten Stahlbetonrahmen entwickelt. Ziel beider Systeme ist es, Stahlbetonrahmen und Ausfachung zu entkoppeln, anstatt die Tragfähigkeit durch aufwendige und kostspielige zusätzliche Bewehrungseinlagen zu erhöhen. Erste Ergebnisse des Systems IMES für Belastungen in und senkrecht zu der Wandebene werden vorgestellt.
The efficiency concepts of Bahadur and Pitman are used to compare the Wilcoxon tests in paired and independent survey samples. A comparison through the length of corresponding confidence intervals is also done. Simple conditions characterizing the dominance of a procedure are derived. Statistical tests for checking these conditions are suggested and discussed.
Prozessorientierte Messung der Customer Experience am Beispiel der Telekommunikationsindustrie
(2018)
Hohe Wettbewerbsintensität und gestiegene Kundenanforderungen erfordern bei Telekommunikationsunternehmen eine aktive Gestaltung der Customer Experience (CX). Ein wichtiger Aspekt dabei ist die CX-Messung. Traditionelle Zufriedenheitsmessungen sind oft nicht ausreichend, um die Kundenerfahrung in komplexen Prozessen vollständig zu erfassen. Daher wird in diesem Kapitel eine prozessübergreifende Referenzlösung zur CX-Messung am Beispiel der Telekommunikationsindustrie vorgeschlagen. Ausgangspunkt ist ein industriespezifisches Prozessmodell, das sich an dem Referenzmodell eTOM orientiert. Dieses wird um Messpunkte erweitert, die Schwachstellen in Bezug auf die CX identifizieren. Für die erkannten Schwachstellen werden über eine Referenzmatrix mögliche Auslöser abgeleitet und anhand von typischen Geschäftsfallmengen bewertet. Somit ist eine direkte Zuordnung und Erfolgsmessung konkreter Maßnahmen zur Behebung der Schwachstellen möglich. Die so entwickelte Referenzlösung wurde im Projekt K1 bei der Deutschen Telekom erfolgreich umgesetzt. Details zur Umsetzung werden als Fallstudien dargestellt.
Nutzen und Rahmenbedingungen 5 informationsgetriebener Geschäftsmodelle des Internets der Dinge
(2018)
Im Kontext der zunehmenden Digitalisierung wird das Internet der Dinge (englisch: Internet of Things, IoT) als ein technologischer Treiber angesehen, durch den komplett neue Geschäftsmodelle im Zusammenspiel unterschiedlicher Akteure entstehen können. Identifizierte Schlüsselakteure sind unter anderem traditionelle Industrieunternehmen, Kommunen und Telekommunikationsunternehmen. Letztere sorgen mit der Bereitstellung von Konnektivität dafür, dass kleine Geräte mit winzigen Batterien nahezu überall und direkt an das Internet angebunden werden können. Es sind schon viele IoT-Anwendungsfälle auf dem Markt, die eine Vereinfachung für Endkunden darstellen, wie beispielsweise Philips Hue Tap. Neben Geschäftsmodellen basierend auf Konnektivität besteht ein großes Potenzial für informationsgetriebene Geschäftsmodelle, die bestehende Geschäftsmodelle unterstützen sowie weiterentwickeln können. Ein Beispiel dafür ist der IoT-Anwendungsfall Park and Joy der Deutschen Telekom AG, bei dem Parkplätze mithilfe von Sensoren vernetzt und Autofahrer in Echtzeit über verfügbare Parkplätze informiert werden. Informationsgetriebene Geschäftsmodelle können auf Daten aufsetzen, die in IoT-Anwendungsfällen erzeugt werden. Zum Beispiel kann ein Telekommunikationsunternehmen Mehrwert schöpfen, indem es aus Daten entscheidungsrelevantere Informationen – sogenannte Insights – ableitet, die zur Steigerung der Entscheidungsagilität genutzt werden. Außerdem können Insights monetarisiert werden. Die Monetarisierung von Insights kann nur nachhaltig stattfinden, wenn sorgfältig gehandelt wird und Rahmenbedingungen berücksichtigt werden. In diesem Kapitel wird das Konzept informationsgetriebener Geschäftsmodelle erläutert und anhand des konkreten Anwendungsfalls Park and Joy verdeutlicht. Darüber hinaus werden Nutzen, Risiken und Rahmenbedingungen diskutiert.
Im Rahmen der digitalen Transformation werden innovative Technologiekonzepte, wie z. B. das Internet der Dinge und Cloud Computing als Treiber für weitreichende Veränderungen von Organisationen und Geschäftsmodellen angesehen. In diesem Kontext ist Robotic Process Automation (RPA) ein neuartiger Ansatz zur Prozessautomatisierung, bei dem manuelle Tätigkeiten durch sogenannte Softwareroboter erlernt und automatisiert ausgeführt werden. Dabei emulieren Softwareroboter die Eingaben auf der bestehenden Präsentationsschicht, so dass keine Änderungen an vorhandenen Anwendungssystemen notwendig sind. Die innovative Idee ist die Transformation der bestehenden Prozessausführung von manuell zu digital, was RPA von traditionellen Ansätzen des Business Process Managements (BPM) unterscheidet, bei denen z. B. prozessgetriebene
Anpassungen auf Ebene der Geschäftslogik notwendig sind. Am Markt werden bereits unterschiedliche RPA-Lösungen als Softwareprodukte angeboten. Gerade bei operativen Prozessen mit sich wiederholenden Verarbeitungsschritten in unterschiedlichen Anwendungssystemen sind gute Ergebnisse durch RPA dokumentiert, wie z. B. die Automatisierung von 35 % der Backoffice-Prozesse bei Telefonica. Durch den vergleichsweise niedrigen Implementierungsaufwand verbunden mit einem hohen Automatisierungspotenzial ist in der Praxis (z. B. Banken, Telekommunikation, Energieversorgung) ein hohes Interesse an RPA vorhanden. Der Beitrag diskutiert RPA als innovativen Ansatz zur
Prozessdigitalisierung und gibt konkrete Handlungsempfehlungen für die Praxis. Dazu wird zwischen modellgetriebenen und selbstlernenden Ansätzen unterschieden. Anhand von generellen Architekturen von RPA-Systemen werden Anwendungsszenarien sowie deren Automatisierungspotenziale, aber auch Einschränkungen, diskutiert. Es folgt ein strukturierter Marktüberblick ausgewählter RPA-Produkte. Anhand von drei konkreten Anwendungsbeispielen wird die Nutzung von RPA in der Praxis verdeutlicht.
Das anhaltende Wachstum wissenschaftlicher Veröffentlichungen wirft die Fragestellung auf, wie Literaturana-lysen im Rahmen von Forschungsprozessen digitalisiert und somit produktiver realisiert werden können. Insbesondere in informationstechnischen Fachgebieten ist die Forschungspraxis durch ein rasant wachsendes Publikationsaufkommen gekennzeichnet. Infolgedessen bietet sich der Einsatz von Methoden der Textanalyse (Text Analytics) an, die Textdaten automatisch vorbereiten und verarbeiten können. Erkenntnisse entstehen dabei aus Analysen von Wortarten und Subgruppen, Korrelations- sowie Zeitreihenanalysen. Dieser Beitrag stellt die Konzeption und Realisierung eines Prototypen vor, mit dem Anwender bibliographische Daten aus der etablierten Literaturdatenbank EBSCO Discovery Service mithilfe textanalytischer Methoden erschließen können. Der Prototyp basiert auf dem Analysesystem IBM Watson Explorer, das Hochschulen lizenzkostenfrei zur Verfügung steht. Potenzielle Adressaten des Prototypen sind Forschungseinrichtungen, Beratungsunternehmen sowie Entscheidungsträger in Politik und Unternehmenspraxis.
Angesichts des anhaltenden Wachstums wissenschaftlicher Veröffentlichungen werden Instrumente benötigt, um Literaturanalysen durch Digitalisierung produktiver zu gestalten. Dieser Beitrag stellt einen Ansatz vor, der bibliographische Daten aus der Literaturdatenbank EBSCO Discovery Service mithilfe von Text-Analytics-Methoden erschließt. Die Lösung basiert auf dem Textanalysesystem IBM Watson Explorer und eignet sich für explorative Literaturanalysen, um beispielsweise den Status quo emergierender Technologiefelder in der Literatur zu reflektieren. Die generierten Ergebnisse sind in den Kontext der zunehmenden Werkzeugunterstützung des Literaturrechercheprozesses einzuordnen und können für intra- sowie interinstitutionelle Wissenstransferprozesse in Forschungs- und Beratungskontexten genutzt werden.
Die Geschichte des Designs ist gesäumt von Auseinandersetzungen. Debattiert wird unter Berufsgenossen, in Interessensverbänden, zwischen Wettbewerbern und nicht zuletzt an Hochschulen; als Foren dienen zum Beispiel Zeitungen, Konferenzen oder Gerichtssäle. Doch welche Gründe gibt es für Streit über Design? Die Kontroversen beschränken sich keineswegs auf die Ästhetik von Artefakten. Auch haben wir es trotz der Vielfalt an Streitfällen nicht mit einem unüberschaubaren Feld von zusammenhanglosen Einzelereignissen zu tun. Wie das vorliegende Buch anhand historischer Kontroversen zeigt, lassen sich im Bereich der Gestaltung Streitkategorien identifizieren. Die Diskursanalyse verrät, dass sich die Konfliktursachen im Verlauf der Designhistorie kaum verändern. So haben die angeführten Dispute erstaunliche Ähnlichkeit mit aktuellen Debatten im Fach. Sie sind Lehrstücke und können dazu anregen, eine Streitkultur im Design zu etablieren, die sich davon distanziert, den Meinungsgegner in ein politisches Lager zu ›verräumen‹.
Nach einem intensiven politischen Diskurs wurde im vergangenen Jahr die Datenschutz-Grundverordnung (DSGVO) verabschiedet. Die DSGVO ersetzt zum 25.5.2018 die bislang geltende, aus dem Jahre 1995 stammende Datenschutz-Richtlinie 95/46/EG. Die Novellierung des Datenschutzrechts bringt zahlreiche neue Anforderungen mit sich. Unternehmen sind daher gezwungen, sich auf die Änderungen einzustellen, ihre datenschutzrelevanten Prozesse im Hinblick auf die neuen Anforderungen zu überprüfen und bis zum Mai 2018 an der DSGVO auszurichten. Der Beitrag gibt einen kurzen Überblick über die zentralen Aspekte der Datenschutzreform und die damit einhergehenden Herausforderungen für Unternehmen.
Datenschutz und der 25.5.2018, wie ein Damoklesschwert scheinen beide Begriffe zurzeit im Raum zu stehe. Jeder weiß oder sollte zumindest um das Inkrafttreten der europäischen DSGVO am 25.5.2018 wissen. Viel wurde über wesentliche Neuerungen im Datenschutzrecht berichtet. Nicht zuletzt über gesteigerte organisatorische Anforderungen, Dokumentationspflichten und drohende Bußgelder. Doch was bedeuten diese Neuerungen ganz konkret für die Praxis des Steuerberaters? Anders als man vermuten könnte, werden die datenschutzrechtlichen Neuerungen nicht nur im Bereich der Kanzleiorganisation relevant. Auch im Steuerverwaltungsverfahren sieht sich der Steuerberater datenschutzrechtlichen Fragestellungen gegenüber, bspw. dann, wenn die Finanzbehörden bei der Verarbeitung der personenbezogenen Daten des Mandanten gegen die DSGVO verstoßen. Gleiches gilt in Bereichen des Beschäftigtendatenschutzes. Sowohl der Kanzleiinhaber selbst, als auch seine Arbeitgeber-Mandanten haben die Vorschriften des Beschäftigtendatenschutzes einzuhalten. Der Steuerberater benötigt datenschutzrechtliches Know How, welches unmittelbar seine tägliche Praxis betrifft. Andernfalls besteht das Risiko, dass dieser mit mehr Fragen, als Antworten zurück bleibt.
Cloud Computing wirft in zahlreichen Rechtsbereichen neuartige juristische Fragestellungen auf. Ziel der Darstellung der rechtlichen Rahmenbedingungen ist, die das Identitätsmanagement in der Cloud betreffenden Rechtsgrundlagen aus den unterschiedlichen Rechtsgebieten vorzustellen und einzuordnen, bevor im Rahmen des sechsten Kapitels die Darstellung der hieraus resultierenden Verpflichtungen in ihrer konkreten Form erfolgt.
Das Kopplungsverbot fristete – obwohl in rechtswissenschaftlicher Literatur seit jeher diskutiert – unter der Geltung des BDSG ein Schattendasein. Mit der Datenschutz-Grundverordnung (DS-GVO) ist eine Änderung absehbar: Der neue Art. EWG_DSGVO Artikel 7 Abs. EWG_DSGVO Artikel 7 Absatz 4 DS-GVO stellt klar, dass die Leistungserbringung nicht von der Einwilligungserteilung abhängig gemacht werden darf. Doch dieses scheinbare Novum des Datenschutzrechts wirft zahlreiche Fragen auf. Während vor allem Vertreter der unternehmerischen Praxis die Anwendung des Kopplungsverbots in zahlreichen Konstellationen ablehnen, beschwören dessen Apologeten das Ende sämtlicher „datenfinanzierten“ Dienste herauf. Der vorliegende Beitrag gibt Einblick in die Regelungstiefe einer Norm, die das Web 2.0 revolutionieren könnte, und schlägt eine Lösung vor, die dem Schutz der Privatsphäre des Betroffenen und den wirtschaftlichen Interessen von Diensteanbietern gleichermaßen gerecht wird.
Die Datenschutz-Grundverordnung (DS-GVO) regelt in ihrem Art. 3 das räumlich anwendbare Datenschutzrecht und zielt dabei gerade auch auf Angebote nichteuropäischer Diensteanbieter ab. Die bisherige Diskussion konzentriert sich bislang in erster Linie darauf, das eingeführte Marktortprinzip zu thematisieren; das weitgehend unangetastete
Niederlassungsprinzip und vor allem die Probleme, die sich durch dessen unveränderte Beibehaltung ergeben, werden dagegen nicht erörtert. Der folgende Beitrag versucht sich an einer systematischen Analyse eines teils kontrovers, teils kaum diskutierten Themas.