Conference Proceeding
Refine
Year of publication
Institute
- Fachbereich Maschinenbau und Mechatronik (102)
- Fachbereich Energietechnik (82)
- Fachbereich Elektrotechnik und Informationstechnik (68)
- Fachbereich Bauingenieurwesen (64)
- Solar-Institut Jülich (57)
- Fachbereich Medizintechnik und Technomathematik (35)
- Fachbereich Luft- und Raumfahrttechnik (25)
- Fachbereich Wirtschaftswissenschaften (17)
- INB - Institut für Nano- und Biotechnologien (15)
- Fachbereich Chemie und Biotechnologie (11)
Language
- German (483) (remove)
Document Type
- Conference Proceeding (483) (remove)
Keywords
Neue Perspektiven für die Bahn in der Produktions- und Distributionslogistik durch Prozessautomation
(2019)
Deutschland braucht mehr Eisenbahn um CO2-Emissionen aus dem Verkehr zu reduzieren. Sie muss zum Rückgrat aktueller Logistikprozesse, z.B. bei Kaufmannsgütern und E-Commerce, werden. Dies geht nicht ohne neuartige betriebliche Konzepte und eine Transformation des Güterwagens von einem „dummen Stück Stahl“ zu einem modernen Werkzeug der Logistik.
Als „Güterwagen 4.0“ wird ein kommunikativer und kooperativer Güterwagen verstanden, der die Voraussetzung zur Automatisierung aller Prozesse der Zugvorbereitung bereitstellt, sich aber ansonsten vollkommen kompatibel mit heutigen Betriebsverfahren im Hauptlauf präsentiert. Durch Kommunikation zwischen Güterwagen und umgebenden intelligenten Systemen im Sinne eines „Internet der Dinge“ gelingt damit unter Anderem die Realisierung hoch effizienter Gleisanschlussverkehre, die der Güterbahn neue Märkte abseits der klassisch bahn-affinen Verkehre erschließen und letztlich den Wandel zu einer nachhaltigen Gütermobilität fördern.
Die potenziellen Auswirkungen der Digitalisierung auf die Lehre sind seit langem Gegenstand ausführlicher Diskussionen innerhalb der Wirtschaftsinformatik (WI) (z. B. in Auth et al. 2021, Barton et al. 2019, Klotz et al. 2019). Nicht zuletzt der in nahezu allen Wirtschaftszweigen bestehende Mangel an qualifizierten Fachkräften lenkt den Diskurs auf einen verbesserten Zugang zu Bildung und gleichen Bildungschancen. Aus dieser Vision heraus und dem Schub der Digitalisierung entstehen Bildungskonzepte wie Open Educational Resources (OER), die gesellschaftlichen Problemen, wie dem des Fachkräftemangels, entgegenwirken sollen. Im Rahmen dieses Kurzbeitrags wird das Projekt WiLMo - "Wirtschaftsinformatik Lehr- und Lernmodule" vorgestellt. WiLMo wird im Rahmen von OERContent.nrw unter Beteiligung von sechs Hochschulen entwickelt und gefördert. Alle Projektbeteiligten arbeiten gemeinsam daran, einheitliche digitale Lehr- und Lernmaterialien im OER-Format für die Kernmodule der Wirtschaftsinformatik zu entwickeln und in garantiert hoher Qualität zur Verfügung zu stellen.
Open Data impliziert die freie Zugänglichkeit, Verfügbarkeit und Wiederverwendbarkeit von Datensätzen. Obwohl hochwertige Datensätze öffentlich verfügbar sind, ist der Zugang zu diesen und die Transparenz über die Formate nicht immer gegeben. Dies mindert die optimale Nutzung des Potenzials zur Wertschöpfung, trotz der vorherrschenden Einigkeit über ihre Chancen. Denn Open Data ermöglicht das Vorantreiben von Compliance-Themen wie Transparenz und Rechenschaftspflicht bis hin zur Förderung von Innovationen. Die Nutzung von Open Data erfordert Mut und eine gemeinsame Anstrengung verschiedener Akteure und Branchen. Im Rahmen des vorliegenden Beitrags werden auf Grundlage des Design Science-Ansatzes eine Open Data Capability Map sowie darauf aufbauend eine Datenarchitektur für Open Data in der Luftfahrtindustrie an einem Beispiel entwickelt.
Generating synthetic LiDAR point cloud data for object detection using the Unreal Game Engine
(2024)
Object detection based on artificial intelligence is ubiquitous in today’s computer vision research and application. The training of the neural networks for object detection requires large and high-quality datasets. Besides datasets based on image data, datasets derived from point clouds offer several advantages. However, training datasets are sparse and their generation requires a lot of effort, especially in industrial domains. A solution to this issue offers the generation of synthetic point cloud data. Based on the design science research method, the work at hand proposes an approach and its instantiation for generating synthetic point cloud data based on the Unreal Engine. The point cloud quality is evaluated by comparing the synthetic cloud to a real-world point cloud. Within a practical example the applicability of the Unreal Game engine for synthetic point cloud generation could be successfully demonstrated.
Im Hinblick auf die Klimaziele der Bundesrepublik Deutschland konzentriert sich das Projekt Diggi Twin auf die nachhaltige Gebäudeoptimierung. Grundlage für eine ganzheitliche Gebäudeüberwachung und -optimierung bildet dabei die Digitalisierung und Automation im Sinne eines Smart Buildings. Das interdisziplinäre Projekt der FH Aachen hat das Ziel, ein bestehendes Hochschulgebäude und einen Neubau an klimaneutrale Standards anzupassen. Im Rahmen des Projekts werden bekannte Verfahren, wie das Building Information Modeling (BIM), so erweitert, dass ein digitaler Gebäudezwilling entsteht. Dieser kann zur Optimierung des Gebäudebetriebs herangezogen werden, sowie als Basis für eine Erweiterung des Bewertungssystems Nachhaltiges Bauen (BNB) dienen. Mithilfe von Sensortechnologie und künstlicher Intelligenz kann so ein präzises Monitoring wichtiger Gebäudedaten erfolgen, um ungenutzte Energieeinsparpotenziale zu erkennen und zu nutzen. Das Projekt erforscht und setzt methodische Erkenntnisse zu BIM und digitalen Gebäudezwillingen praxisnah um, indem es spezifische Fragen zur Energie- und Ressourceneffizienz von Gebäuden untersucht und konkrete Lösungen für die Gebäudeoptimierung entwickelt.
Industrie 4.0 stellt viele Herausforderungen an produzierende Unternehmen und ihre Beschäf-tigten. Innovative und effektive Trainingsstrategien sind erforderlich, um mit den sich schnell verändernden Produktionsumgebungen und neuen Fertigungstechnologien Schritt halten zu können. Virtual Reality (VR) bietet neue Möglichkeiten für On-the-Job, On-Demand- und Off-Premise-Schulungen. Diese Arbeit stellt ein neues VR Schulungssystem vor, welches sich flexible an unterschiedliche Trainingsobjekte auf Grundlage von Rezepten und CAD Modellen anpassen lässt. Das Konzept basiert auf gerichteten azyklischen Graphen und einem Level-system. Es ermöglicht eine benutzerindividuelle Lerngeschwindigkeit mittels visueller Ele-mente. Das Konzept wurde für einen mechanischen Anwendungsfall mit Industriekomponen-ten implementiert und in der Industrie 4.0-Modellfabrik der FH Aachen umgesetzt.
In der Vergangenheit basierten große Systemintegrationsprojekte in der Regel auf Individualentwicklungen für einzelne Kunden. Getrieben durch Kostendruck steigt aber der Bedarf nach standardisierten Lösungen, die gleichzeitig die individuellen Anforderungen des jeweiligen Umfelds berücksichtigen. T-Systems GEI GmbH wird beiden Anforderungen mit Produktkerneln gerecht. Neben den technischen Aspekten der Kernelentwicklung spielen besonders organisatorische Aspekte eine Rolle, um Kernel effizient und qualitativ hochwertig zu entwickeln, ohne deren Funktionalitäten ins Uferlose wachsen zu lassen. Umgesetzt hat T-Systems dieses Konzept für Flughafeninformationssysteme. Damit kann dem wachsenden Bedarf der Flughafenbetreiber nach einer effizienten und kostengünstigen Softwarelösung zur Unterstützung Ihrer Geschäftsprozesse entsprochen werden.
Der Erfolg eines Softwarenentwicklungsprojektes insbesondere eines Systemintegrationsprojektes wird mit der Erfüllung des „Teufelsdreiecks“, „In-Time“, „In-Budget“, „In-Quality“ gemessen. Hierzu ist die Kenntnis der Software- und Prozessqualität essenziell, um die Einhaltung der Qualitätskriterien festzustellen, aber auch, um eine Vorhersage hinsichtlich Termin- und Budgettreue zu treffen. Zu diesem Zweck wurde in der T-Systems Systems Integration ein System aus verschiedenen Key Performance Indikatoren entworfen und in der Organisation implementiert, das genau das leistet und die Kriterien für CMMI Level 3 erfüllt.
Wir stellen hier exemplarisch STACK Aufgaben vor, die frei von der Problematik sind, welche sich durch diverse Kommunikationswege und (webbasierte) Computer Algebra Systeme (CAS) ergibt. Daher sind sie insbesondere für eine Open-Book Online Prüfung geeignet, da eine faire Prüfungssituation gewährleistet werden kann.
Durch die Fragmentierung von Wertschöpfungsketten ergeben sich neue Herausforderungen für das Management von Kundenbeziehungen. Die Dissertation untersucht die daraus resultierenden Anforderungen an eine übergreifende Integration von Customer Relationship Management in der
Telekommunikationsindustrie. Ziel ist es, durch Anwendung von Methoden eines Enterprise Architecture Framework eine übergreifend Lösung zu gestalten. Grundlegende Prämisse dabei ist, dass die übergreifende Gestaltung eines Customer Relationship Management für alle an der
Wertschöpfung beteiligten Unternehmen vorteilhaft ist.
Die Veränderungen des Telekommunikationsmarktes haben in der Praxis zu einer Vielzahl von Transformationsprojekten geführt. Was gehört aber zu einem “Transformationsprojekt”, welche Prozesse und Systeme werden verändert? Zur Beantwortung dieser Frage haben wir 184 Berichte zu Projekten analysiert, die als "Transformationsprojekte" bezeichnet waren. Für die Analyse haben wir einen Kodierungsrahmen konzipiert und anhand dessen die Berichte mit einem hierarchischen Clustering-Verfahren in Themen gruppiert. Die Ergebnisse liefern Hinweise über die in der Praxis gesetzten Schwerpunkte und Prioritäten. Sie können
somit als Unterstützung für Unternehmen dienen, die ein Transformationsprojekt planen. Sie weisen zudem darauf hin, in welchen Bereichen eines Unternehmens Unterstützung durch wissenschaftlich erprobte Werkzeuge und Modelle nötig ist.
Zur Unterstützung des Transformationsbedarfs von Telekommunikationsunternehmen sind die Referenzmodelle des TM Forums in der Praxis weltweit anerkannt. Dabei findet jedoch meist eine losgelöste Nutzung für spezifische Einzelthemen statt. Daher führt dieser Artikel die bestehenden Inhalte in einer industriespezifischen, übergreifenden Referenzarchitektur zusammen. Der Fokus liegt auf den Ebenen Aufbauorganisation, Prozesse, Applikationen und Daten. Darüber hinaus werden inhaltliche Architekturdomänen zur Strukturierung angeboten. Die Referenzarchitektur ist hierarchisch aufgebaut und wird hier beispielhaft für ausgewählte, aggregierte Inhalte beschrieben. Als erste Evaluation wird die Anwendung der Referenzarchitektur in drei Praxisprojekten erläutert.
Primäre Ziele des Internets der Dinge sind die Steuerung physischer Gegenstände aus der Distanz und das Erfassen von Informationen aus dem Umfeld dieser Gegenstände. Dazu werden Hardwarekomponenten in Gegenstände des täglichen Lebens und die Umwelt integriert. Mithilfe von Informations- und Kommunikationstechnologien entsteht hieraus das Internet der Dinge (Internet of Things, IoT). Vor einem Jahr wurde mit Narrowband Internet of Things (NB-IoT) eine Technologie die es ermöglicht, Hardwarekomponenten energieeffizient und unmittelbar über das Mobilfunknetz zu vernetzen. Gegenstände werden dadurch über große Reichweiten eigenständig kommunikationsfähig. Das IoT steht mit NB-IoT vor einem gestiegenen Nutzenpotenzial, da eine zunehmende Anzahl miteinander verbundener Gegenstände und der Austausch größerer Datenmengen realisierbar sind. Damit sind aus wirtschaftlicher Sicht neue, innovative Anwendungsfälle des IoT möglich, die auch bereits in der Praxis diskutiert werden. In diesem Beitrag wird anhand eines konkreten Anwendungsfalls untersucht, welche neuen Geschäfts- bzw. Partnermodelle durch die gemeinsame Nutzung von NB-IoT-Daten und Big Data-Technologien entstehen und welcher qualitative Mehrwert für die an einem Anwendungsfall beteiligten Stakeholder geschaffen wird. Dazu wird – einem konstruktionsorientierten Forschungsansatz folgend – ein Bewertungsrahmen zur qualitativen Wertschöpfungsanalyse von NB-IoT entwickelt, der u.a. auf der Schablone nach Cockburn und dem Business Model Canvas basiert. Anhand dieses Bewertungsrahmens wird ein Anwendungsfall untersucht, der in anonymisierter Form an konkrete Praxisprojekte angelehnt ist. Konkret wird ein Anwendungsfall betrachtet, der einen Fahrradverleih 2.0 basierend auf dem Einsatz von NB-IoT vorschlägt. Aus den Untersuchungsergebnissen gehen beispielsweise Erkenntnisse hervor, wie Geschäftsmodelle auf
Kritische Infrastrukturen sind primäre Ziele krimineller Hacker. Der Deutsche Bundestag reagierte darauf am 25. Juli 2015 mit einem Gesetz zur Verbesserung der Sicherheit von ITSystemen, dem IT-Sicherheitsgesetz. Dies verlangt von Betreibern kritischer Infrastrukturen, angemessene Mindeststandards für organisatorische und technische Sicherheit zu implementieren, um den Betrieb und die Verfügbarkeit dieser Infrastruktur zu gewährleisten. Telekommunikationsunternehmen sind einerseits von diesem Gesetz in besonderem Maße betroffen und verfügen andererseits mit dem Rahmenwerk enhanced Telecom Operations Map (eTOM) über ein international anerkanntes Referenzmodell zur Gestaltung von Geschäftsprozessen in dieser Branche. Da sämtliche Telekommunikationsunternehmen in Deutschland verpflichtet sind, das Gesetz innerhalb eines bestimmten Zeitrahmens zu implementieren, präsentiert dieser Beitrag einen Vorschlag zur Erweiterung von eTOM um die relevanten Anforderungen des deutschen IT-Sicherheitsgesetzes.
Momentan finden in vielen Branchen umfassende Veränderungen von Märkten und Wertschöpfungsketten statt, welche auch als Digitale Transformation bezeichnet werden. In diesem Zusammenhang wird das Internet der Dinge (Internet of Things, IoT) als ein wichtiger technischer Enabler der Veränderungen angesehen. Primäre Ziele des IoT sind die Steuerung physischer Gegen-stände aus der Distanz und das Erfassen von Informationen aus dem Umfeld dieser Gegenstände. Welche neuen Geschäfts-bzw. Partnermodelle entstehen durch die gemeinsame Nutzung von IoT-Daten und Big-Data-Technologien und welcher qualitative Mehrwert wird dadurch geschaffen? Als Antwort wird in diesem Beitrag ein Bewertungsrahmen zur qualitativen Wertschöpfungsanalyse von IoT vorgeschlagen. Anhand dieses Bewertungsrahmens wird ein Anwendungsfall untersucht, der in anonymisierter Form an konkrete Praxisprojekte angelehnt ist. Konkret wird ein Anwendungsfall betrachtet, der eine Abfallwirtschaft 2.0 basierend auf dem Einsatz von IoT vorschlägt. Aus den Untersuchungsergebnissen gehen beispielsweise Erkenntnisse hervor, wie Geschäftsmodelle auf Basis eines unentgeltlichen Informationsaustauschs durch IoT gestaltet werden können.
Angesichts des anhaltenden Wachstums wissenschaftlicher Veröffentlichungen werden Instrumente benötigt, um Literaturanalysen durch Digitalisierung produktiver zu gestalten. Dieser Beitrag stellt einen Ansatz vor, der bibliographische Daten aus der Literaturdatenbank EBSCO Discovery Service mithilfe von Text-Analytics-Methoden erschließt. Die Lösung basiert auf dem Textanalysesystem IBM Watson Explorer und eignet sich für explorative Literaturanalysen, um beispielsweise den Status quo emergierender Technologiefelder in der Literatur zu reflektieren. Die generierten Ergebnisse sind in den Kontext der zunehmenden Werkzeugunterstützung des Literaturrechercheprozesses einzuordnen und können für intra- sowie interinstitutionelle Wissenstransferprozesse in Forschungs- und Beratungskontexten genutzt werden.
Digital start-ups are perceived as an engine for innovation and job promotor. While success factors for non-IT start-ups have already been extensively researched, this study sheds light on digital entrepreneurs, whose business model relies primarily on services based on digital technologies. Applying the Grounded Theory method, we identify relevant environmental success factors for digital entrepreneurs. The study’s research contribution is threefold. First, we provide 16 relevant and less relevant environmental success factors, which enables a comparison with prior identified factors. We found out that several prior environmental success factors, such as accessibility to transportation or the availability of land and facilities are less relevant for a digital entrepreneur. Second, we derive and discuss hypotheses for the influence of these factors on digital start-up success. Third, we present a theoretical model that lays the foundation for explaining the environmental influence on digital
entrepreneurship success.
Die Nutzung von Prozessmodellierungsmethoden oder - werkzeugen kann erheblichen Einfluss auf die Effektivität von Prozessen haben. Das gilt insbesondere für Situationen, in denen Personen unter Stress stehen oder ungeübt sind. In diesen Fällen geben Prozessmodelle konkrete Empfehlungen, nach denen sich die handelnden Personen richten könnten. In Experimenten mit der Business-Simulation Apollo 13 haben wir den Effekt eines Einsatzes von Prozessmodellierungsmethoden und -werkzeugen untersucht. Bereits bekannte Theorien (z.B. über geeignete Verhältnisse von Kommunikationsinhalten) konnten bestätigt werden. Darüber hinaus haben wir eine besondere Bedeutung der Übertragbarkeit von Prozessmodellen in konkrete Handlungen identifiziert.
Es existieren verschiedenste Arten von Spielen, die versuchen, die Motivation einer Spielsituation in einen ernsten Kontext zu überführen. In diesem Artikel wird der Überbegriff „Competence Developing Games“ definiert und anhand von Beispielen erläutert. Dafür werden Erkennungskriterien vorgestellt, entsprechende Spieltypen erläutert und eine Zuordnung durch-geführt.
In diesem Paper wird die Entwicklung und Evaluation eines grafischen Regeleditors für das Erstellen von „Smart Living Environments“-Services vorgestellt. Dafür werden zunächst die Deduktion und Implementierung des grafischen Regeleditors erläutert. Anschließend wird eine Probandenstudie vorgestellt, in welcher der Mehrwert bezogen auf die Aspekte Zeit, Fehleranfälligkeit und Gebrauchstauglichkeit festgestellt wird.
Smart-Living-Services nur gegen Daten? Process-Mining als Möglichkeit zur Steigerung der Akzeptanz!
(2019)
Seit Jahren etablieren sich Technologien in unserem Alltag, die mit Hilfe von smarten Komponenten neue Services und Vernetzungsmöglichkeiten schaffen. Dieses Paper beschreibt die Ergebnisse einer Studie, die die Akzeptanz von IoT-gestützten, smarten Services im privaten Umfeld untersucht. Dabei wird eine zentrale Datenverarbeitung mit automatisierter Erstellung smarter Services der dezentralen Datenverarbeitung mit manueller Serviceerstellung in sieben Kategorien gegenübergestellt. Die Auswertung der Studie legt die Forschungsfrage nahe, ob das Nutzerverhalten im Kontext Smart Living nicht auch mit einem
dezentralen Lösungsansatz, und somit unabhängig von großen Unternehmen, analysiert werden kann. Hierfür wird im zweiten Teil des Papers die Anwendbarkeit von Process-Mining im Bereich Smart Living untersucht und prototypisch getestet.
Obwohl es eine Vielzahl von Einführungskonzepten für ITSM gibt, hat sich bisher keines dieser Konzepte auf breiter Linie durchgesetzt. Das gilt in erhöhtem Maße für ITSM-Einführungskonzepte für KMU, wohl nicht zuletzt aufgrund der Tatsache, dass der Mehrwert von ITSM für KMU aufgrund der geringeren Größe der IT-Organisationen nur entsprechend schwieriger generiert werden kann.
Mit diesem Beitrag wird ein Einführungskonzept für ITSM in KMU systematisch hergeleitet. Dafür wurden zunächst die Treiber und Barrieren von ITSM untersucht, um daraus ein umfassendes Wirkmodell zu entwickeln. Da mit diesem Wirkungsmodell die Einflussfaktoren auf den Erfolg von ITSM in KMU deutlich werden, konnte auf dieser Basis ein Einführungskonzept abgeleitet werden, welches insbesondere die positiven Effekte unterstützt bzw.
verstärkt.
Die steigende Popularität von mobilen Endgeräten im privaten und geschäftlichen Umfeld geht mit einem Anstieg an Sicherheitslücken und somit potentiellen Angriffsflächen einher. Als ein Element der technischen und organisatorischen Maßnahmen zum Schutz eines Netzwerkes können Monitoring-Apps dienen, die unerwünschtes Verhalten und Angriffe erkennen. Die automatisierte Überwachung von Endgeräten ist jedoch rechtlich und ethisch komplex. Dies in Kombination mit einer hohen Sensibilität der Nutzer und Nutzerinnen dieser Geräte in Bezug auf Privatsphäre, kann zu einer geringen Akzeptanz und Compliance führen. Eine datenschutzrechtlich und ethisch einwandfreie Konzeption solcher Apps bereits im Designprozess führt zu höherer Akzeptanz und verbessert so die Effizienz. Diese Analyse beschreibt Möglichkeiten zur Umsetzung.
Das Kopplungsverbot verbietet, die Nutzung einer Dienstleistung von der Erteilung einer nicht für die Leistungserbringung erforderlichen Einwilligung abhängig zu machen. Personalisierte Werbung wird hierdurch erheblich erschwert. Anbieter können jedoch durch Bereitstellung eines alternativen, einwilligungsfreien Zugangs zu derselben Leistung ihren Dienst datenschutzkonform anbieten. Ein solcher Zugang muss nicht zwingend in Form eines fixen Entgelts gestaltet sein. Vielmehr ist es datenschutzrechtlich in gewissem Umfang zulässig, Preise unter Einbeziehung personenbezogener Daten dynamisch zu gestalten.
Für die Herstellung von metallischen Bauteilen wird in der heutigen Zeit eine Vielzahl von Verfahren auf dem Markt angeboten. Dabei stehen die additiven im Wettbewerb zu den konventionellen Verfahren. Die erreichbaren Oberflächenqualitäten der additiven sind nicht mit denen spanender Verfahren vergleichbar. Für diesen Beitrag wurde analysiert, ob sich ein mittels Selektivem Laserschmelzen (SLM) additiv hergestellter Edelstahl hinsichtlich seiner Oberflächenqualität nach der Zerspanung von einem umgeformten konventionell hergestellten Edelstahl gleicher Sorte unterscheidet.
Thematisch widmet sich das Projekt Coolplan- AIR der Fortentwicklung und Feldvalidierung eines Berechnungs- und Auslegungstools zur energieeffizienten Kühlung von Gebäuden mit luftgestützten Systemen. Neben dem Aufbau und der Weiterentwicklung von Simulationsmodellen erfolgen Vermessungen der Gesamtsysteme anhand von Praxisanlagen im Feld. Der Schwerpunkt des Projekts liegt auf der Vermessung, Simulation und Integration rein luftgestützter Kühltechnologien. Im Bereich der Kälteerzeugung wurden Luft‐ Luft‐ Wärmepumpen, Anlagen zur adiabaten Kühlung bzw. offene Kühltürme und VRF‐ Multisplit‐ Systeme (Variable Refrigerant Flow) im Feld bzw. auf dem Teststand der HSD vermessen. Die Komponentenmodelle werden in die Matlab/Simulink‐ Toolbox CARNOT integriert und anschließend auf Basis der zuvor erhaltenen Messdaten validiert.
Einerseits erlauben die Messungen das Betriebsverhalten von Anlagenkomponenten zu analysieren. Andererseits soll mit der Vermessung im Feld geprüft werden, inwieweit die Simulationsmodelle, welche im Vorgängerprojekt aus Prüfstandmessungen entwickelt wurden, auch für größere Geräteleistungen Gültigkeit besitzen. Die entwickelten und implementierten Systeme, bestehend aus verschiedensten Anlagenmodellen und Regelungskomponenten, werden geprüft und dahingehend qualifiziert, dass sie in Standard- Auslegungstools zuverlässig verwendet werden können.
Zusätzlich wird ein energetisches Monitoring eines Hörsaalgebäudes am Campus Jülich durchgeführt, das u. a. zur Validierung der Kühllastberechnungen in gängigen Simulationsmodelle genutzt werden kann.
Im Projekt Coolplan‐ AIR geht es um die Fortentwicklung und Feld‐ Validierung eines Berechnungs‐ und Auslegungstools zur energieeffizienten Kühlung von Gebäuden mit luftgestützten Systemen. Neben dem Aufbau und der Weiterentwicklung von Simulationsmodellen erfolgen Vermessungen der Gesamtsysteme anhand von Praxisanlagen im Feld. Eine der betrachteten Anlagen arbeitet mit indirekter Verdunstung. Diese Veröffentlichung zeigt den Entwicklungsprozess und den Aufbau des Simulationsmodells zur Verdunstungskühlung in der Simulationsumgebung Matlab‐ Simulink mit der CARNOT‐ Toolbox. Das besondere Augenmerk liegt dabei auf dem physikalischen Modell des Wärmeübertragers, in dem die Verdunstung implementiert ist. Dem neuen Modellansatz liegt die Annahme einer aus der Enthalpie‐ Betrachtung hergeleiteten effektiven Wärmekapazität zugrunde. Des Weiteren wird der Befeuchtungsgrad als konstant angesehen und eine standardisierte Zunahme der Wärmeübertragung des feuchten gegenüber dem trockenen Wärmeübertrager angenommen. Die Validierung des Modells erfolgte anhand von Literaturdaten. Für den trockenen Wärmetauscher ist der maximale absolute Fehler der berechneten Austrittstemperatur (Zuluft) kleiner als ±0.1 K und für den nassen Wärmetauscher (Kühlfall) unter der Annahme eines konstanten Verdunstungsgrades kleiner als ±0.4 K.
Industry 4.0 imposes many challenges for manufacturing companies and their employees. Innovative and effective training strategies are required to cope with fast-changing production environments and new manufacturing technologies. Virtual Reality (VR) offers new ways of on-the-job, on-demand, and off-premise training. A novel concept and evaluation system combining Gamification and VR practice for flexible assembly tasks is proposed in this paper and compared to existing works. It is based on directed acyclic graphs and a leveling system. The concept enables a learning speed which is adjustable to the users’ pace and dynamics, while the evaluation system facilitates adaptive work sequences and allows employee-specific task fulfillment. The concept was implemented and analyzed in the Industry 4.0 model factory at FH Aachen for mechanical assembly jobs.
Die fortschreitende Digitalisierung und Globalisierung fordert von den Unternehmen eine erhöhte Flexibilität und Anpassungsfähigkeit. Um dies zu erreichen, sind qualifizierte und engagierte Mitarbeiter/-innen unabdingbar. Gamification bietet die Möglichkeit, Beschäftigte individuell in ihren Tätigkeiten zu unterstützen und mittels Feedbackmechanismen zu motivieren. In dieser Arbeit wird ein Gamification Konzept bestehend aus einem intelligenten Arbeitsplatz, einer Wissensdatenbank und einer Gamification Plattform vorgestellt, welches an bestehende Produktionsumgebungen adaptiert werden kann. Das Konzept wird am Beispiel der Longboardproduktion in der Industrie 4.0 Modellfabrik der FH Aachen implementiert und evaluiert.
Untersuchungen zur Tragfähigkeit und Steifigkeit eines neuartigen Wandelements in Holzbauweisen
(2018)