Refine
Year of publication
- 2020 (236) (remove)
Institute
- Fachbereich Medizintechnik und Technomathematik (59)
- Fachbereich Energietechnik (35)
- Fachbereich Wirtschaftswissenschaften (34)
- IfB - Institut für Bioengineering (32)
- Fachbereich Luft- und Raumfahrttechnik (31)
- Fachbereich Elektrotechnik und Informationstechnik (29)
- ECSM European Center for Sustainable Mobility (18)
- Fachbereich Maschinenbau und Mechatronik (17)
- Fachbereich Bauingenieurwesen (14)
- Solar-Institut Jülich (14)
Has Fulltext
- no (236) (remove)
Language
- English (169)
- German (65)
- Multiple languages (1)
- Dutch (1)
Document Type
- Article (130)
- Conference Proceeding (55)
- Part of a Book (20)
- Book (9)
- Review (7)
- Other (4)
- Doctoral Thesis (3)
- Patent (3)
- Conference Poster (2)
- Conference: Meeting Abstract (1)
Keywords
- MINLP (3)
- Additive manufacturing (2)
- Adjacent buildings (2)
- Experimental validation (2)
- Historical centres (2)
- INODIS (2)
- Shake table test (2)
- Stone masonry (2)
- rebound-effect (2)
- sustainability (2)
Is part of the Bibliography
- no (236)
Three-dimensional (3D) full-field measurements provide a comprehensive and accurate validation of finite element (FE) models. For the validation, the result of the model and measurements are compared based on two respective point-sets and this requires the point-sets to be registered in one coordinate system. Point-set registration is a non-convex optimization problem that has widely been solved by the ordinary iterative closest point algorithm. However, this approach necessitates a good initialization without which it easily returns a local optimum, i.e. an erroneous registration. The globally optimal iterative closest point (Go-ICP) algorithm has overcome this drawback and forms the basis for the presented open-source tool that can be used for the validation of FE models using 3D full-field measurements. The capability of the tool is demonstrated using an application example from the field of biomechanics. Methodological problems that arise in real-world data and the respective implemented solution approaches are discussed.
With the many achievements of Machine Learning in the past years, it is likely that the sub-area of Deep Learning will continue to deliver major technological breakthroughs [1]. In order to achieve best results, it is important to know the various different Deep Learning frameworks and their respective properties. This paper provides a comparative overview of some of the most popular frameworks. First, the comparison methods and criteria are introduced and described with a focus on computer vision applications: Features and Uses are examined by evaluating papers and articles, Adoption and Popularity is determined by analyzing a data science study. Then, the frameworks TensorFlow, Keras, PyTorch and Caffe are compared based on the previously described criteria to highlight properties and differences. Advantages and disadvantages are compared, enabling researchers and developers to choose a framework according to their specific needs.
Trotz fortschreitender Automatisierung bleiben manuelle Tätigkeiten ein wichtiger Baustein der Fertigung kundenindividueller Produkte. Um die Mitarbeiter(innen) zu unterstützen und um eine effiziente Arbeit zu ermöglichen, werden zunehmend auf Augmented Reality (AR) basierende Systeme eingesetzt. Die vorgestellte Arbeit konzentriert sich auf die Entwicklung ganzheitlicher AR-Arbeitsplätze für den Einsatz in kleinen und mittleren Unternehmen (KMU). Das entwickelte AR- Handarbeitskonzept beinhaltet eine Just-in-time-Darstellung der Arbeitsaufgaben auf Werkstücken mit automatisierter Fertigungskontrolle. Als
Reaktion auf kurze Produktlebenszyklen und hohe Produktvielfalten sind alle Komponenten auf maximale Flexibilität ausgelegt. Ein Umrüsten auf neue Produkte kann innerhalb von Minuten erfolgen.
The implementation of IO-Link in the automation industry has increased over the years. Its main advantage is it offers a digital point-to-point plugand-play interface for any type of device or application. This simplifies the communication between devices and increases productivity with its different features like self-parametrization and maintenance. However, its complete potential is not always used.
The aim of this paper is to create an Arduino based framework for the development of generic IO-Link devices and increase its implementation for rapid prototyping. By generating the IO device description file (IODD) from a graphical user interface, and further customizable options for the device application, the end-user can intuitively develop generic IO-Link devices. The peculiarity of this framework relies on its simplicity and abstraction which allows to implement any sensor functionality and virtually connect any type of device to an IO-Link master. This work consists of the general overview of the framework, the technical background of its development and a proof of concept which demonstrates the workflow for its implementation.
Water distribution systems are an essential supply infrastructure for cities. Given that climatic and demographic influences will pose further challenges for these infrastructures in the future, the resilience of water supply systems, i.e. their ability to withstand and recover from disruptions, has recently become a subject of research. To assess the resilience of a WDS, different graph-theoretical approaches exist. Next to general metrics characterizing the network topology, also hydraulic and technical restrictions have to be taken into account. In this work, the resilience of an exemplary water distribution network of a major German city is assessed, and a Mixed-Integer Program is presented which allows to assess the impact of capacity adaptations on its resilience.
Stahlbetonrahmentragwerke mit Ausfachungen aus Mauerwerk weisen nach Erdbeben häufig schwere Schäden auf. Gründe hierfür sind die Beanspruchungen der Ausfachungswände durch die aufgezwungenen Rahmenverformungen in Wandebene und die gleichzeitig auftretenden Trägheitskräfte senkrecht zur Wandebene in Kombination mit der konstruktiven Ausführung des Ausfachungsmauerwerks. Die Ausfachung wird in der Regel knirsch gegen die Rahmenstützen gemauert, wobei der Verschluss der oberen Fuge mit Mörtel oder Montageschaum erfolgt. Dadurch kommt es im Erdbebenfall zu lokalen Interaktionen zwischen Ausfachung und Rahmen, die in der Folge zu einem Versagen einzelner Ausfachungswände oder zu einem sukzessiven Versagen des Gesamtgebäudes führen können. Die beobachteten Schäden waren die Motivation dafür, in dem europäischen Forschungsprojekt INSYSME für Stahlbetonrahmentragwerke mit Ausfachungen aus hochwärmedämmenden Ziegelmauerwerk innovative Lösungen zur Verbesserung des seismischen Verhaltens zu entwickeln. Der vorliegende Beitrag stellt die im Rahmen des Projekts von den deutschen Projektpartnern (Universität Kassel, SDA-engineering GmbH) entwickelten Lösungen vor und vergleicht deren seismisches Verhalten mit der traditionellen Ausführung der Ausfachungswände. Grundlage für den Vergleich sind statisch-zyklische Wandversuche und Simulationen auf Wandebene. Aus den Ergebnissen werden Empfehlungen für die erdbebensichere Auslegung von Stahlbetonrahmentragwerken mit Ausfachungen aus Ziegelmauerwerk abgeleitet.
Thematisch widmet sich das Projekt Coolplan- AIR der Fortentwicklung und Feldvalidierung eines Berechnungs- und Auslegungstools zur energieeffizienten Kühlung von Gebäuden mit luftgestützten Systemen. Neben dem Aufbau und der Weiterentwicklung von Simulationsmodellen erfolgen Vermessungen der Gesamtsysteme anhand von Praxisanlagen im Feld. Der Schwerpunkt des Projekts liegt auf der Vermessung, Simulation und Integration rein luftgestützter Kühltechnologien. Im Bereich der Kälteerzeugung wurden Luft‐ Luft‐ Wärmepumpen, Anlagen zur adiabaten Kühlung bzw. offene Kühltürme und VRF‐ Multisplit‐ Systeme (Variable Refrigerant Flow) im Feld bzw. auf dem Teststand der HSD vermessen. Die Komponentenmodelle werden in die Matlab/Simulink‐ Toolbox CARNOT integriert und anschließend auf Basis der zuvor erhaltenen Messdaten validiert.
Einerseits erlauben die Messungen das Betriebsverhalten von Anlagenkomponenten zu analysieren. Andererseits soll mit der Vermessung im Feld geprüft werden, inwieweit die Simulationsmodelle, welche im Vorgängerprojekt aus Prüfstandmessungen entwickelt wurden, auch für größere Geräteleistungen Gültigkeit besitzen. Die entwickelten und implementierten Systeme, bestehend aus verschiedensten Anlagenmodellen und Regelungskomponenten, werden geprüft und dahingehend qualifiziert, dass sie in Standard- Auslegungstools zuverlässig verwendet werden können.
Zusätzlich wird ein energetisches Monitoring eines Hörsaalgebäudes am Campus Jülich durchgeführt, das u. a. zur Validierung der Kühllastberechnungen in gängigen Simulationsmodelle genutzt werden kann.
In collaborative research projects, both researchers and practitioners work together solving business-critical challenges. These projects often deal with ETL processes, in which humans extract information from non-machine-readable documents by hand. AI-based machine learning models can help to solve this problem.
Since machine learning approaches are not deterministic, their quality of output may decrease over time. This fact leads to an overall quality loss of the application which embeds machine learning models. Hence, the software qualities in development and production may differ.
Machine learning models are black boxes. That makes practitioners skeptical and increases the inhibition threshold for early productive use of research prototypes. Continuous monitoring of software quality in production offers an early response capability on quality loss and encourages the use of machine learning approaches. Furthermore, experts have to ensure that they integrate possible new inputs into the model training as quickly as possible.
In this paper, we introduce an architecture pattern with a reference implementation that extends the concept of Metrics Driven Research Collaboration with an automated software quality monitoring in productive use and a possibility to auto-generate new test data coming from processed documents in production.
Through automated monitoring of the software quality and auto-generated test data, this approach ensures that the software quality meets and keeps requested thresholds in productive use, even during further continuous deployment and changing input data.