Refine
Year of publication
Document Type
- Article (5587)
- Conference Proceeding (1619)
- Book (1078)
- Part of a Book (548)
- Bachelor Thesis (297)
- Patent (172)
- Report (100)
- Doctoral Thesis (78)
- Other (77)
- Administrative publication (76)
- Part of Periodical (63)
- Lecture (30)
- Master's Thesis (20)
- Contribution to a Periodical (19)
- Review (17)
- Diploma Thesis (15)
- Working Paper (13)
- Course Material (9)
- Talk (7)
- Study Thesis (5)
Language
- German (5013)
- English (4801)
- Russian (14)
- Portuguese (6)
- Multiple languages (5)
- Spanish (3)
- nld (2)
Keywords
- Amtliche Mitteilung (71)
- Bachelor (33)
- Aachen University of Applied Sciences (31)
- Master (31)
- Prüfungsordnung (31)
- Bauingenieurwesen (30)
- Lesbare Fassung (28)
- Biosensor (25)
- Fachhochschule Aachen (23)
- Illustration (21)
- Studien- und Prüfungsordnung (21)
- Aachen / Fachhochschule Aachen (20)
- Änderungsordnung (20)
- Blitzschutz (18)
- Corporate Design (17)
- Elektromobilität (17)
- CAD (16)
- Finite-Elemente-Methode (16)
- Fotografie (16)
- civil engineering (14)
Institute
- Fachbereich Medizintechnik und Technomathematik (2052)
- Fachbereich Elektrotechnik und Informationstechnik (1150)
- Fachbereich Wirtschaftswissenschaften (1138)
- Fachbereich Energietechnik (1104)
- Fachbereich Maschinenbau und Mechatronik (866)
- Fachbereich Chemie und Biotechnologie (847)
- Fachbereich Luft- und Raumfahrttechnik (776)
- Fachbereich Bauingenieurwesen (705)
- IfB - Institut für Bioengineering (686)
- INB - Institut für Nano- und Biotechnologien (613)
- Fachbereich Gestaltung (484)
- Solar-Institut Jülich (339)
- Fachbereich Architektur (174)
- FH Aachen (153)
- ECSM European Center for Sustainable Mobility (112)
- ZHQ - Bereich Hochschuldidaktik und Evaluation (74)
- MASKOR Institut für Mobile Autonome Systeme und Kognitive Robotik (71)
- Nowum-Energy (70)
- Institut fuer Angewandte Polymerchemie (32)
- Sonstiges (24)
The article presents the investigation of the seismic behaviour of a modern URM building located in the municipality of Finale Emilia in province of Modena, Northern Italy. The building is situated in the centre of the series of the 2012 Northern Italy earthquakes and has not suffered any damage during the earthquake series in 2012. The observed earthquake resistance of the building is compared with predicted resistances based on linear and nonlinear design approaches according to Eurocode. Furthermore, probabilistic analyses based on nonlinear calculation models taking into account scattering of the most relevant input parameters are carried out to identify their influence to the results and to derive fragility curves.
Reinforced concrete (RC) frames with masonry infills are frequently used in seismic regions all over the world. Generally masonry infills are considered as nonstructural elements and thus are typically neglected in the design process. However, the observations made after strong earthquakes have shown that masonry infills can modify the dynamic behavior of the structure significantly. The consequences were total collapses of buildings and loss of human lives. This paper presents the new system INODIS (Innovative Decoupled Infill System) developed within the European research project INSYSME (Innovative Systems for Earthquake Resistant Masonry Enclosures in RC Buildings). INODIS decouples the frame and the masonry infill by means of special U-shaped rubbers placed in between frame and infill. The effectiveness of the system was investigated by means of full scale tests on RC frames with masonry infills subjected to in-plane and out-of-plane loading. Furthermore small specimen tests were conducted to determine material characteristics of the components and the resistances of the connections. Finally, a micromodel was developed to simulate the in-plane behavior of RC frames infilled with AAC blocks with and without installation of the INODIS system.
Im Rahmen der digitalen Transformation werden innovative Technologiekonzepte, wie z. B. das Internet der Dinge und Cloud Computing als Treiber für weitreichende Veränderungen von Organisationen und Geschäftsmodellen angesehen. In diesem Kontext ist Robotic Process Automation (RPA) ein neuartiger Ansatz zur Prozessautomatisierung, bei dem manuelle Tätigkeiten durch sogenannte Softwareroboter erlernt und automatisiert ausgeführt werden. Dabei emulieren Softwareroboter die Eingaben auf der bestehenden Präsentationsschicht, so dass keine Änderungen an vorhandenen Anwendungssystemen notwendig sind. Die innovative Idee ist die Transformation der bestehenden Prozessausführung von manuell zu digital, was RPA von traditionellen Ansätzen des Business Process Managements (BPM) unterscheidet, bei denen z. B. prozessgetriebene
Anpassungen auf Ebene der Geschäftslogik notwendig sind. Am Markt werden bereits unterschiedliche RPA-Lösungen als Softwareprodukte angeboten. Gerade bei operativen Prozessen mit sich wiederholenden Verarbeitungsschritten in unterschiedlichen Anwendungssystemen sind gute Ergebnisse durch RPA dokumentiert, wie z. B. die Automatisierung von 35 % der Backoffice-Prozesse bei Telefonica. Durch den vergleichsweise niedrigen Implementierungsaufwand verbunden mit einem hohen Automatisierungspotenzial ist in der Praxis (z. B. Banken, Telekommunikation, Energieversorgung) ein hohes Interesse an RPA vorhanden. Der Beitrag diskutiert RPA als innovativen Ansatz zur
Prozessdigitalisierung und gibt konkrete Handlungsempfehlungen für die Praxis. Dazu wird zwischen modellgetriebenen und selbstlernenden Ansätzen unterschieden. Anhand von generellen Architekturen von RPA-Systemen werden Anwendungsszenarien sowie deren Automatisierungspotenziale, aber auch Einschränkungen, diskutiert. Es folgt ein strukturierter Marktüberblick ausgewählter RPA-Produkte. Anhand von drei konkreten Anwendungsbeispielen wird die Nutzung von RPA in der Praxis verdeutlicht.
Nutzen und Rahmenbedingungen 5 informationsgetriebener Geschäftsmodelle des Internets der Dinge
(2018)
Im Kontext der zunehmenden Digitalisierung wird das Internet der Dinge (englisch: Internet of Things, IoT) als ein technologischer Treiber angesehen, durch den komplett neue Geschäftsmodelle im Zusammenspiel unterschiedlicher Akteure entstehen können. Identifizierte Schlüsselakteure sind unter anderem traditionelle Industrieunternehmen, Kommunen und Telekommunikationsunternehmen. Letztere sorgen mit der Bereitstellung von Konnektivität dafür, dass kleine Geräte mit winzigen Batterien nahezu überall und direkt an das Internet angebunden werden können. Es sind schon viele IoT-Anwendungsfälle auf dem Markt, die eine Vereinfachung für Endkunden darstellen, wie beispielsweise Philips Hue Tap. Neben Geschäftsmodellen basierend auf Konnektivität besteht ein großes Potenzial für informationsgetriebene Geschäftsmodelle, die bestehende Geschäftsmodelle unterstützen sowie weiterentwickeln können. Ein Beispiel dafür ist der IoT-Anwendungsfall Park and Joy der Deutschen Telekom AG, bei dem Parkplätze mithilfe von Sensoren vernetzt und Autofahrer in Echtzeit über verfügbare Parkplätze informiert werden. Informationsgetriebene Geschäftsmodelle können auf Daten aufsetzen, die in IoT-Anwendungsfällen erzeugt werden. Zum Beispiel kann ein Telekommunikationsunternehmen Mehrwert schöpfen, indem es aus Daten entscheidungsrelevantere Informationen – sogenannte Insights – ableitet, die zur Steigerung der Entscheidungsagilität genutzt werden. Außerdem können Insights monetarisiert werden. Die Monetarisierung von Insights kann nur nachhaltig stattfinden, wenn sorgfältig gehandelt wird und Rahmenbedingungen berücksichtigt werden. In diesem Kapitel wird das Konzept informationsgetriebener Geschäftsmodelle erläutert und anhand des konkreten Anwendungsfalls Park and Joy verdeutlicht. Darüber hinaus werden Nutzen, Risiken und Rahmenbedingungen diskutiert.
Prozessorientierte Messung der Customer Experience am Beispiel der Telekommunikationsindustrie
(2018)
Hohe Wettbewerbsintensität und gestiegene Kundenanforderungen erfordern bei Telekommunikationsunternehmen eine aktive Gestaltung der Customer Experience (CX). Ein wichtiger Aspekt dabei ist die CX-Messung. Traditionelle Zufriedenheitsmessungen sind oft nicht ausreichend, um die Kundenerfahrung in komplexen Prozessen vollständig zu erfassen. Daher wird in diesem Kapitel eine prozessübergreifende Referenzlösung zur CX-Messung am Beispiel der Telekommunikationsindustrie vorgeschlagen. Ausgangspunkt ist ein industriespezifisches Prozessmodell, das sich an dem Referenzmodell eTOM orientiert. Dieses wird um Messpunkte erweitert, die Schwachstellen in Bezug auf die CX identifizieren. Für die erkannten Schwachstellen werden über eine Referenzmatrix mögliche Auslöser abgeleitet und anhand von typischen Geschäftsfallmengen bewertet. Somit ist eine direkte Zuordnung und Erfolgsmessung konkreter Maßnahmen zur Behebung der Schwachstellen möglich. Die so entwickelte Referenzlösung wurde im Projekt K1 bei der Deutschen Telekom erfolgreich umgesetzt. Details zur Umsetzung werden als Fallstudien dargestellt.
Angesichts des anhaltenden Wachstums wissenschaftlicher Veröffentlichungen werden Instrumente benötigt, um Literaturanalysen durch Digitalisierung produktiver zu gestalten. Dieser Beitrag stellt einen Ansatz vor, der bibliographische Daten aus der Literaturdatenbank EBSCO Discovery Service mithilfe von Text-Analytics-Methoden erschließt. Die Lösung basiert auf dem Textanalysesystem IBM Watson Explorer und eignet sich für explorative Literaturanalysen, um beispielsweise den Status quo emergierender Technologiefelder in der Literatur zu reflektieren. Die generierten Ergebnisse sind in den Kontext der zunehmenden Werkzeugunterstützung des Literaturrechercheprozesses einzuordnen und können für intra- sowie interinstitutionelle Wissenstransferprozesse in Forschungs- und Beratungskontexten genutzt werden.
Das anhaltende Wachstum wissenschaftlicher Veröffentlichungen wirft die Fragestellung auf, wie Literaturana-lysen im Rahmen von Forschungsprozessen digitalisiert und somit produktiver realisiert werden können. Insbesondere in informationstechnischen Fachgebieten ist die Forschungspraxis durch ein rasant wachsendes Publikationsaufkommen gekennzeichnet. Infolgedessen bietet sich der Einsatz von Methoden der Textanalyse (Text Analytics) an, die Textdaten automatisch vorbereiten und verarbeiten können. Erkenntnisse entstehen dabei aus Analysen von Wortarten und Subgruppen, Korrelations- sowie Zeitreihenanalysen. Dieser Beitrag stellt die Konzeption und Realisierung eines Prototypen vor, mit dem Anwender bibliographische Daten aus der etablierten Literaturdatenbank EBSCO Discovery Service mithilfe textanalytischer Methoden erschließen können. Der Prototyp basiert auf dem Analysesystem IBM Watson Explorer, das Hochschulen lizenzkostenfrei zur Verfügung steht. Potenzielle Adressaten des Prototypen sind Forschungseinrichtungen, Beratungsunternehmen sowie Entscheidungsträger in Politik und Unternehmenspraxis.
The continuing growth of scientific publications raises the question how research processes can be digitalized and thus realized more productively. Especially in information technology fields, research practice is characterized by a rapidly growing volume of publications. For the search process various information systems exist. However, the analysis of the published content is still a highly manual task. Therefore, we propose a text analytics system that allows a fully digitalized analysis of literature sources. We have realized a prototype by using EBSCO Discovery Service in combination with IBM Watson Explorer and demonstrated the results in real-life research projects. Potential addressees are research institutions, consulting firms, and decision-makers in politics and business practice.
The Carologistics team participates in the RoboCup Logistics League for the seventh year. The RCLL requires precise vision,
manipulation and path planning, as well as complex high-level decision
making and multi-robot coordination. We outline our approach with an
emphasis on recent modifications to those components.
The team members in 2018 are David Bosen, Christoph Gollok, Mostafa
Gomaa, Daniel Habering, Till Hofmann, Nicolas Limpert, Sebastian Schönitz,
Morian Sonnet, Carsten Stoffels, and Tarik Viehmann.
This paper is based on the last year’s team description.
Purpose — to compare the chemical elemental composition of vitreous cavity content taken from cadaveric eyes compared to samples taken from the eyes with terminal stage refractory glaucoma with decompensated intraocular pressure (IOP). Material and methods. The vitreous contents of the eyes from 2 groups were studied. The 1st group included 15 cadaveric eyes; the 2nd group included 15 eyes with refractory glaucoma in the terminal stage of the disease with decompensated IOP in patients with hypertension pain. The vitreal content samples were taken in the course of antiglaucoma surgery aimed at preserving the eye as an organ and involving employment of drainage in the vitreous cavity. The study of virtual contents was carried out on energy dispersive spectrometer Oxford X-Max 50 integrated into scanning electron microscope Zeiss EVO LS10. Results. Increased concentrations of Kalium and Phosphorus were detected in the vitreous content of cadaveric eyes compared with the vitreal content from the eyes with terminal glaucoma with decompensated IOP taken in vivo (K — 0.172/0.093; P — 0.045/0.025 mmol/L). In the vitreous cavity in the eyes with end-stage glaucoma with decompensated IOP, the concentration of Nitrogen was higher in comparison with human cadaver eyes (2.030/1.424 mmol/L). Conclusion. The increased concentrations of Kalium and Phosphorus in the vitreous content of cadaveric eyes is associated with postmortem autolytic processes and with the release of intracellular content in the destruction of cell membranes. The increased Nitrogen concentration in the vitreal contents of the eyes with terminal stage glaucoma with decompensated IOP may be associated with the presence of osmotically active nitrogen-containing compounds in the eyes with increased IOP.
Manufacturing process simulation (MPS) has become more and more important for aviation and the automobile industry. A highly competitive market requires the use of high performance metals and composite materials in combination with reduced manufacturing cost and time as well as a minimization of the time to market for a new product. However, the use of such materials is expensive and requires sophisticated manufacturing processes. An experience based process and tooling design followed by a lengthy trial-and-error optimization is just not contemporary anymore. Instead, a tooling design process aided by simulation is used more often. This paper provides an overview of the capabilities of MPS in the fields of sheet metal forming and prepreg autoclave manufacturing of composite parts summarizing the resulting benefits for tooling design and manufacturing engineering. The simulation technology is explained briefly in order to show several simplification and optimization techniques for developing industrialized simulation approaches. Small case studies provide examples of an efficient application on an industrial scale.
Textsammlung mit allen für den Datenschutz in Kirchen maßgeblichen Regelwerken: DSGVO, KDG, KDR-OG und DSG-EKD sowie begleitende Verordnungen KDO-DVO und ITSVO-EKD. Die vorliegende Textsammlung enthält neben dem zentralen Regelwerk, der Datenschutz-Grundverordnung (DSGVO) in ihrer letzten korrigierten Fassung vom 19. April 2018, die Normen des kirchlichen Rechts, die aufgrund der DSGVO neu erlassen wurden. Auf Seiten der katholischen Kirche sind dies das Gesetz über den Kirchlichen Datenschutz (KDG) und die Kirchliche Datenschutzregelung der Ordensgemeinschaft päpstlichen Rechts (KDR-OG); zudem findet die Verordnung zur Durchführung der Anordnung über den kirchlichen Datenschutz (KDO-DVO) weiterhin entsprechende Anwendung. Die evangelische Kirche novellierte das Kirchengesetz über den Datenschutz der Evangelischen Kirche in Deutschland (DSG-EKD) und hielt an der Verordnung zur Sicherheit der Informationstechnik (ITSVO-EKD) fest. Ergänzt wird das Werk durch Verweise auf maßgebliche Veröffentlichungen der Artikel-29-Datenschutzgruppe und der weltlichen und kirchlichen Datenschutzaufsichtsbehörden. Damit richtet sich das vorliegende Werk vor allem an kirchliche Gemeinden sowie Unternehmen in kirchlicher Trägerschaft und ihre Datenschutzbeauftragten wie gleichermaßen an private Unternehmen, Kanzleien und Berater mit kirchlicher Kundschaft bzw. Mandantschaft.
Das neue kirchliche Datenschutzrecht – Herausforderungen für Unternehmen der Privatwirtschaft
(2018)
Die Rechtsfigur der gemeinsamen Verantwortlichkeit beschäftigt die datenschutzrechtliche Literatur seit Langem. Die Bestimmung der Verantwortlichkeit bei arbeitsteiligen Verarbeitungsverfahren, welche vor allem bei heutigen Plattformdiensten üblich sind, ist komplex: Stets sind mehrere Akteure beteiligt und in der Regel werden durch die Handlung eines Beteiligten mehrere Verarbeitungsschritte ausgelöst. Nun hat sich der EuGH in einem in mehrfacher Hinsicht bemerkenswerten Urteil geäußert.
Die Datenschutz-Grundverordnung (DS-GVO) regelt in ihrem Art. 3 das räumlich anwendbare Datenschutzrecht und zielt dabei gerade auch auf Angebote nichteuropäischer Diensteanbieter ab. Die bisherige Diskussion konzentriert sich bislang in erster Linie darauf, das eingeführte Marktortprinzip zu thematisieren; das weitgehend unangetastete
Niederlassungsprinzip und vor allem die Probleme, die sich durch dessen unveränderte Beibehaltung ergeben, werden dagegen nicht erörtert. Der folgende Beitrag versucht sich an einer systematischen Analyse eines teils kontrovers, teils kaum diskutierten Themas.
Das Kopplungsverbot fristete – obwohl in rechtswissenschaftlicher Literatur seit jeher diskutiert – unter der Geltung des BDSG ein Schattendasein. Mit der Datenschutz-Grundverordnung (DS-GVO) ist eine Änderung absehbar: Der neue Art. EWG_DSGVO Artikel 7 Abs. EWG_DSGVO Artikel 7 Absatz 4 DS-GVO stellt klar, dass die Leistungserbringung nicht von der Einwilligungserteilung abhängig gemacht werden darf. Doch dieses scheinbare Novum des Datenschutzrechts wirft zahlreiche Fragen auf. Während vor allem Vertreter der unternehmerischen Praxis die Anwendung des Kopplungsverbots in zahlreichen Konstellationen ablehnen, beschwören dessen Apologeten das Ende sämtlicher „datenfinanzierten“ Dienste herauf. Der vorliegende Beitrag gibt Einblick in die Regelungstiefe einer Norm, die das Web 2.0 revolutionieren könnte, und schlägt eine Lösung vor, die dem Schutz der Privatsphäre des Betroffenen und den wirtschaftlichen Interessen von Diensteanbietern gleichermaßen gerecht wird.