Refine
Year of publication
- 2023 (191) (remove)
Institute
- Fachbereich Gestaltung (55)
- Fachbereich Medizintechnik und Technomathematik (33)
- Fachbereich Elektrotechnik und Informationstechnik (28)
- ECSM European Center for Sustainable Mobility (22)
- Fachbereich Luft- und Raumfahrttechnik (21)
- Fachbereich Wirtschaftswissenschaften (18)
- Fachbereich Chemie und Biotechnologie (12)
- Fachbereich Energietechnik (11)
- Fachbereich Maschinenbau und Mechatronik (9)
- IfB - Institut für Bioengineering (7)
Has Fulltext
- no (191) (remove)
Document Type
- Article (56)
- Bachelor Thesis (52)
- Conference Proceeding (37)
- Part of a Book (23)
- Book (8)
- Patent (3)
- Habilitation (2)
- Master's Thesis (2)
- Preprint (2)
- Conference: Meeting Abstract (1)
Keywords
- Editorial (5)
- Corporate Design (4)
- Design (3)
- Erscheinungsbild (3)
- Illustration (3)
- Nachhaltigkeit (3)
- Natural language processing (3)
- Publikation (3)
- Animation (2)
- Associated liquids (2)
Digital forensics of smartphones is of utmost importance in many criminal cases. As modern smartphones store chats, photos, videos etc. that can be relevant for investigations and as they can have storage capacities of hundreds of gigabytes, they are a primary target for forensic investigators. However, it is exactly this large amount of data that is causing problems: extracting and examining the data from multiple phones seized in the context of a case is taking more and more time. This bears the risk of wasting a lot of time with irrelevant phones while there is not enough time left to analyze a phone which is worth examination. Forensic triage can help in this case: Such a triage is a preselection step based on a subset of data and is performed before fully extracting all the data from the smartphone. Triage can accelerate subsequent investigations and is especially useful in cases where time is essential. The aim of this paper is to determine which and how much data from an Android smartphone can be made directly accessible to the forensic investigator – without tedious investigations. For this purpose, an app has been developed that can be used with extremely limited storage of data in the handset and which outputs the extracted data immediately to the forensic workstation in a human- and machine-readable format.
Von Zeichentisch und Letraset zu inhaltsbasierter Füllung und OpenType – wie sich die Werkzeuge des Grafikdesigns entwickelt und die Gestaltungsprozesse beeinflusst haben. Die Bachelorarbeit „Toolbar: Werkzeuge des Grafikdesigns“ setzt sich mit der eigenen Disziplin, dem Grafikdesign, auseinander und geht dabei seinen Wurzeln, den Werkzeugen, nach. Im Rahmen dessen werden in Gesprächen mit verschiedenen Gestalter*innen Tools und Technologien des Grafikdesigns untersucht und verglichen – angefangen vom analogen Paste-Up bis hin zu modernen Designmethoden. Dabei wird diskutiert, wie sich die Werkzeuge im Laufe der Zeit entwickelt haben und welche Auswirkungen dies auf das Grafikdesign und die Positionierung von Designer*innen hatte. Außerdem wird die Bedeutung von Werkzeugen im kreativen Prozess und ihre Auswirkungen auf die Gestaltung hinterfragt und aufgezeigt.
Selected problems in the field of multivariate statistical analysis are treated. Thereby, one focus is on the paired sample case. Among other things, statistical testing problems of marginal homogeneity are under consideration. In detail, properties of Hotelling‘s T² test in a special parametric situation are obtained. Moreover, the nonparametric problem of marginal homogeneity is discussed on the basis of possibly incomplete data. In the bivariate data case, properties of the Hoeffding-Blum-Kiefer-Rosenblatt independence test statistic on the basis of partly not identically distributed data are investigated. Similar testing problems are treated within the scope of the application of a result for the empirical process of the concomitants for partly categorial data. Furthermore, testing changes in the modeled solvency capital requirement of an insurance company by means of a paired sample from an internal risk model is discussed. Beyond the paired sample case, a new asymptotic relative efficiency concept based on the expected volumes of multidimensional confidence regions is introduced. Besides, a new approach for the treatment of the multi-sample goodness-of-fit problem is presented. Finally, a consistent test for the treatment of the goodness-of-fit problem is developed for the background of huge or infinite dimensional data.
The steel prefabricated family house ›Quelle-Fertighaus‹ designed and constructed by the German company Quelle, is an innovative modular system commercialised in 1962. All aspects of the Quelle-Fertighaus are planned on the principle of minimal effort for maximal flexibility. The clever design of the ground plan based on a 4 m × 7 m module offers the flexibility for either one to three additional modules.
The steel construction is innovative and unique, consisting of load-bearing portal frames acting as braces. The house design is furthermore characterised by a simple metrical grid layout and the practical placement of the foundation and basement, which allowed the very cost-effective production and the lowest price for a prefabricated family house in Germany during the postwar era. Nowadays its portal-frame-construction offers an interesting approach for its renovation and transformation according to present building demands.
KNX is a protocol for smart building automation, e.g., for automated heating, air conditioning, or lighting. This paper analyses and evaluates state-of-the-art KNX devices from manufacturers Merten, Gira and Siemens with respect to security. On the one hand, it is investigated if publicly known vulnerabilities like insecure storage of passwords in software, unencrypted communication, or denialof-service attacks, can be reproduced in new devices. On the other hand, the security is analyzed in general, leading to the discovery of a previously unknown and high risk vulnerability related to so-called BCU (authentication) keys.
Even the shortest flight through unknown, cluttered environments requires reliable local path planning algorithms to avoid unforeseen obstacles. The algorithm must evaluate alternative flight paths and identify the best path if an obstacle blocks its way. Commonly, weighted sums are used here. This work shows that weighted Chebyshev distances and factorial achievement scalarising functions are suitable alternatives to weighted sums if combined with the 3DVFH* local path planning algorithm. Both methods considerably reduce the failure probability of simulated flights in various environments. The standard 3DVFH* uses a weighted sum and has a failure probability of 50% in the test environments. A factorial achievement scalarising function, which minimises the worst combination of two out of four objective functions, reaches a failure probability of 26%; A weighted Chebyshev distance, which optimises the worst objective, has a failure probability of 30%. These results show promise for further enhancements and to support broader applicability.
Ice melting probes
(2023)
The exploration of icy environments in the solar system, such as the poles of Mars and the icy moons (a.k.a. ocean worlds), is a key aspect for understanding their astrobiological potential as well as for extraterrestrial resource inspection. On these worlds, ice melting probes are considered to be well suited for the robotic clean execution of such missions. In this chapter, we describe ice melting probes and their applications, the physics of ice melting and how the melting behavior can be modeled and simulated numerically, the challenges for ice melting, and the required key technologies to deal with those challenges. We also give an overview of existing ice melting probes and report some results and lessons learned from laboratory and field tests.
Lead and nickel, as heavy metals, are still used in industrial processes, and are classified as “environmental health hazards” due to their toxicity and polluting potential. The detection of heavy metals can prevent environmental pollution at toxic levels that are critical to human health. In this sense, the electrolyte–insulator–semiconductor (EIS) field-effect sensor is an attractive sensing platform concerning the fabrication of reusable and robust sensors to detect such substances. This study is aimed to fabricate a sensing unit on an EIS device based on Sn₃O₄ nanobelts embedded in a polyelectrolyte matrix of polyvinylpyrrolidone (PVP) and polyacrylic acid (PAA) using the layer-by-layer (LbL) technique. The EIS-Sn₃O₄ sensor exhibited enhanced electrochemical performance for detecting Pb²⁺ and Ni²⁺ ions, revealing a higher affinity for Pb²⁺ ions, with sensitivities of ca. 25.8 mV/decade and 2.4 mV/decade, respectively. Such results indicate that Sn₃O₄ nanobelts can contemplate a feasible proof-of-concept capacitive field-effect sensor for heavy metal detection, envisaging other future studies focusing on environmental monitoring.
Modern implementations of driver assistance systems are evolving from a pure driver assistance to a independently acting automation system. Still these systems are not covering the full vehicle usage range, also called operational design domain, which require the human driver as fall-back mechanism. Transition of control and potential minimum risk manoeuvres are currently research topics and will bridge the gap until full autonomous vehicles are available. The authors showed in a demonstration that the transition of control mechanisms can be further improved by usage of communication technology. Receiving the incident type and position information by usage of standardised vehicle to everything (V2X) messages can improve the driver safety and comfort level. The connected and automated vehicle’s software framework can take this information to plan areas where the driver should take back control by initiating a transition of control which can be followed by a minimum risk manoeuvre in case of an unresponsive driver. This transition of control has been implemented in a test vehicle and was presented to the public during the IEEE IV2022 (IEEE Intelligent Vehicle Symposium) in Aachen, Germany.
Die Auswahl der passenden Geschäftsprozesse für eine Automatisierung mittels Robotic Process Automation (RPA) ist für den Erfolg von RPA-Projekten entscheidend. Das vorliegende Kapitel liefert dafür Selektionskriterien, die aus einer qualitativen Studie mit elf interviewten RPA-Experten aus dem Versicherungsumfeld resultieren. Das Ergebnis umfasst eine gewichtete Liste von sieben Dimensionen und 51 Prozesskriterien, welche die Automatisierung mit Softwarerobotern begünstigen beziehungsweise deren Nichterfüllung eine Umsetzung erschweren oder sogar verhindern. Die drei wichtigsten Kriterien zur Auswahl von Geschäftsprozessen für die Automatisierung mittels RPA umfassen die Entlastung der an dem Prozess mitwirkenden Mitarbeiter (Arbeitnehmerentlastung), die Ausführbarkeit des Prozesses mittels Regeln (Regelbasierte Prozessteuerung) sowie ein positiver Kosten-Nutzen-Vergleich. Auf diesen Ergebnissen aufbauend wird ein Vergleich mit den bereits bekannten Selektionskriterien aus der Literatur erstellt und diskutiert. Praktiker können die Ergebnisse verwenden, um eine systematische Auswahl von RPA-relevanten Prozessen vorzunehmen. Aus wissenschaftlicher Perspektive stellen die Ergebnisse eine Grundlage zur Erklärung des Erfolgs und Misserfolgs von RPA-Projekten dar.
Deammonification for nitrogen removal in municipal wastewater in temperate and cold climate zones is currently limited to the side stream of municipal wastewater treatment plants (MWWTP). This study developed a conceptual model of a mainstream deammonification plant, designed for 30,000 P.E., considering possible solutions corresponding to the challenging mainstream conditions in Germany. In addition, the energy-saving potential, nitrogen elimination performance and construction-related costs of mainstream deammonification were compared to a conventional plant model, having a single-stage activated sludge process with upstream denitrification. The results revealed that an additional treatment step by combining chemical precipitation and ultra-fine screening is advantageous prior the mainstream deammonification. Hereby chemical oxygen demand (COD) can be reduced by 80% so that the COD:N ratio can be reduced from 12 to 2.5. Laboratory experiments testing mainstream conditions of temperature (8–20°C), pH (6–9) and COD:N ratio (1–6) showed an achievable volumetric nitrogen removal rate (VNRR) of at least 50 gN/(m3∙d) for various deammonifying sludges from side stream deammonification systems in the state of North Rhine-Westphalia, Germany, where m3 denotes reactor volume. Assuming a retained Norganic content of 0.0035 kgNorg./(P.E.∙d) from the daily loads of N at carbon removal stage and a VNRR of 50 gN/(m3∙d) under mainstream conditions, a resident-specific reactor volume of 0.115 m3/(P.E.) is required for mainstream deammonification. This is in the same order of magnitude as the conventional activated sludge process, i.e., 0.173 m3/(P.E.) for an MWWTP of size class of 4. The conventional plant model yielded a total specific electricity demand of 35 kWh/(P.E.∙a) for the operation of the whole MWWTP and an energy recovery potential of 15.8 kWh/(P.E.∙a) through anaerobic digestion. In contrast, the developed mainstream deammonification model plant would require only a 21.5 kWh/(P.E.∙a) energy demand and result in 24 kWh/(P.E.∙a) energy recovery potential, enabling the mainstream deammonification model plant to be self-sufficient. The retrofitting costs for the implementation of mainstream deammonification in existing conventional MWWTPs are nearly negligible as the existing units like activated sludge reactors, aerators and monitoring technology are reusable. However, the mainstream deammonification must meet the performance requirement of VNRR of about 50 gN/(m3∙d) in this case.
Background
Post-COVID-19 syndrome (PCS) is a lingering disease with ongoing symptoms such as fatigue and cognitive impairment resulting in a high impact on the daily life of patients. Understanding the pathophysiology of PCS is a public health priority, as it still poses a diagnostic and treatment challenge for physicians.
Methods
In this prospective observational cohort study, we analyzed the retinal microcirculation using Retinal Vessel Analysis (RVA) in a cohort of patients with PCS and compared it to an age- and gender-matched healthy cohort (n = 41, matched out of n = 204).
Measurements and main results
PCS patients exhibit persistent endothelial dysfunction (ED), as indicated by significantly lower venular flicker-induced dilation (vFID; 3.42% ± 1.77% vs. 4.64% ± 2.59%; p = 0.02), narrower central retinal artery equivalent (CRAE; 178.1 [167.5–190.2] vs. 189.1 [179.4–197.2], p = 0.01) and lower arteriolar-venular ratio (AVR; (0.84 [0.8–0.9] vs. 0.88 [0.8–0.9], p = 0.007). When combining AVR and vFID, predicted scores reached good ability to discriminate groups (area under the curve: 0.75). Higher PCS severity scores correlated with lower AVR (R = − 0.37 p = 0.017). The association of microvascular changes with PCS severity were amplified in PCS patients exhibiting higher levels of inflammatory parameters.
Conclusion
Our results demonstrate that prolonged endothelial dysfunction is a hallmark of PCS, and impairments of the microcirculation seem to explain ongoing symptoms in patients. As potential therapies for PCS emerge, RVA parameters may become relevant as clinical biomarkers for diagnosis and therapy management.
Preprint: Studies on the enzymatic reduction of levulinic acid using Chiralidon-R and Chiralidon-S
(2023)
The enzymatic reduction of levulinic acid by the chiral catalysts Chiralidon-R and Chiralidon-S which are commercially available superabsorbed alcohol dehydrogenases is described. The Chiralidon®-R/S reduces the levulinic acid to the (R,S)-4-hydroxy valeric acid and the (R)- or (S)- gamma-valerolactone.
Die Verfasser stellen in ihrem Beitrag die künftig in Kraft tretenden oder schon in Kraft getretenen Gesetzesvorhaben der europäischen Union vor. Vorab werde auf die abgelaufene Frist zur Anpassung von Standardvertragsklausel hingewiesen. Die Anpassung könne ggf. durch den Data Privacy Act der Kommission bewirkt werden, da dieser eine Angemessenheit suggeriere. Neben dem Digital Markets Act, der die Wahrung der Diskriminierungsfreiheit den Gatekeeper-Plattformen bezüglich der Bewerbung von Waren Dritter vorschreibt, sind ebenfalls der Digital Service Act und der Data Governance Act in Kraft getreten und werden künftig wirksam. Letzteres bezweckt den Datenaustausch von nicht-personenbezogenen Daten öffentlich-rechtlicher Datensätze, wobei anders als bei DSA, der die Verbraucherrechte durchsetzen möchte, mangels Verpflichtung die praktische Umsetzung ausbleiben werde. In der Entwurfsphase stecken der Artificial Intelligence Act, der Data Act, sowie der Cyber Resilience Act. Allen drei sei wegen dem weiten Anwendungsspielraum, der Bußgeldandrohung oder der Cyber-Bedrohungslage besondere praktische Relevanz beizumessen. Die Kommission weite durch diese Gesetzesvorhaben ihre Regelungsabsicht auch auf nicht-personenbezogene Daten und dem Datentransfer aus. Im Ergebnis werden die Unternehmen mit mehr Verpflichtungen konfrontiert, zu dessen Umsetzung ein funktionierendes Compliance-Management-System unabdingbar sei.
Datenschutz & Datenrecht – ein Ausblick auf 2023: Nationale Entwicklungen, EuGH-Vorlagen & Aufsicht
(2023)
Die Verfasser vermitteln einen Überblick über die nationalen Gesetzgebungsverfahren und wesentliche EuGH-Vorlagefragen betreffend den Datenschutz und das Datenrecht für das Jahr 2023. Zunächst folgen u.a. Hinweise in Bezug auf den Hinweisgeberschutz, die Verabschiedung der Einwilligungsverwaltungs-Verordnung zur Konkretisierung des § 26 TTDSG und das Mobilitätsdatengesetz. Anschließend werden Vorlagefragen deutscher Gerichte, die dem EuGH vorgelegt und bereits am 12.01.2023 beantwortet wurden, wie etwa C-154/21 und C-132/21 und die EuGH-Entscheidung vom 9.2.2023 (C-453/21), thematisiert. Überdies führen die Autoren wesentliche Entscheidungen des EuGH an, die im Jahr 2023 aus dem Bereich Datenrecht und Datenschutz zu erwarten seien. Auch Aktivitäten der Datenschutzaufsicht auf nationaler und europäischer Ebene finden Erwähnung. Die Verfasser machen abschließend auf besonders interessante Entscheidungen, die 2023 erwartet werden, wie etwa das EuGH-Urteil zum Auskunftsanspruch, sowie auf das Verhältnis des der Whistleblowing-RL umzusetzende Hinweisgeberschutzgesetz einerseits und Vorgaben des Datenschutzes andererseits, aufmerksam. Sie empfehlen, die künftige Rechtsprechung des EuGH im Blick zu behalten.
In dem vorliegenden Beitrag setzt sich der Verfasser mit dem Urteil des EuGH vom 4.5.2023 (Az.: C-60/22, DSB 2023, 178) zu den Auswirkungen eines formellen Verstoßes des Verantwortlichen gegen die Pflichten aus Artt. 26, 30 DSGVO (juris: EUV 2016/679) auf die Rechtmäßigkeit der Datenverarbeitung auseinander. Nachdem zunächst der zugrunde liegende Sachverhalt und der Hintergrund des Vorlageverfahrens skizziert wurden, gibt der Verfasser einen Überblick über die wesentlichen Entscheidungsgründe des EuGH. Insbesondere stelle der EuGH hier fest, dass die Rechtmäßigkeit der Verarbeitung in Art. 6 DSGVO geregelt sei und sich eine rechtswidrige Verarbeitung daher nur aus einem Verstoß gegen die Artt. 6 ff. DSGVO ergeben könne; die Pflichten aus Art. 26 und Art. 30 DSGVO würden nicht zu den Gründen für die Rechtmäßigkeit der Verarbeitung zählen. Mit Blick auf die Praxis lasse sich, so der Verfasser abschließend, festhalten, dass die Entscheidung insofern nicht überraschend sei; jedoch sei die Feststellung, dass sich aus Verstößen gegen Art. 26 und Art. 30 DSGVO kein Verstoß gegen das Grundrecht auf den Schutz personenbezogener Daten nachweisen lasse überraschend und bedenklich. Auch überrasche es, dass der EuGH eher in einem Nebensatz feststelle, dass der Verantwortliche im Prozess aufgrund seiner Rechenschaftspflicht gegenüber Betroffenen beweisbelastet ist; ob sich die Kammer hier der möglichen Auswirkungen ihrer Ausführungen bewusst gewesen sei, bleibe fraglich.
Umsatzbasierte Bußgelder – wie sonst nur aus dem Kartellrecht bekannt – waren einer der Gründe, warum die Datenschutz-Grundverordnung (DSGVO) vor ihrem Inkrafttreten für erhebliches Aufsehen sorgte. Die vielfach relevanteren Schadensersatzansprüche, die, wie bei „Dieselgate“, aufgrund der Vielzahl von betroffenen Personen und der aus Sicht von Rechtsdienstleistern bestehenden Skalierbarkeit mit weitaus höheren Einbußen für Unternehmen einhergehen können, blieben zunächst unbeachtet. Inzwischen ist der Schadensersatzanspruch gem. Art. 82 DSGVO die Vorschrift, die die meisten Vorlagen zum Europäischen Gerichtshof (EuGH) der letzten Jahre hervorgerufen hat. Am 4.5.2023 hat nun der EuGH (Urteil v. 4.5.2023 - Rs. C-300/21, NWB GAAAJ-41389) in einem Grundsatzurteil über zentrale Fragen rund um den Ersatz immaterieller Schäden als Folge von Datenschutzverstößen entschieden.
In recent years, the development of large pretrained language models, such as BERT and GPT, significantly improved information extraction systems on various tasks, including relation classification. State-of-the-art systems are highly accurate on scientific benchmarks. A lack of explainability is currently a complicating factor in many real-world applications. Comprehensible systems are necessary to prevent biased, counterintuitive, or harmful decisions.
We introduce semantic extents, a concept to analyze decision patterns for the relation classification task. Semantic extents are the most influential parts of texts concerning classification decisions. Our definition allows similar procedures to determine semantic extents for humans and models. We provide an annotation tool and a software framework to determine semantic extents for humans and models conveniently and reproducibly. Comparing both reveals that models tend to learn shortcut patterns from data. These patterns are hard to detect with current interpretability methods, such as input reductions. Our approach can help detect and eliminate spurious decision patterns during model development. Semantic extents can increase the reliability and security of natural language processing systems. Semantic extents are an essential step in enabling applications in critical areas like healthcare or finance. Moreover, our work opens new research directions for developing methods to explain deep learning models.