Refine
Year of publication
Institute
- Fachbereich Medizintechnik und Technomathematik (1934)
- Fachbereich Elektrotechnik und Informationstechnik (1150)
- Fachbereich Wirtschaftswissenschaften (1121)
- Fachbereich Energietechnik (1067)
- Fachbereich Chemie und Biotechnologie (897)
- Fachbereich Maschinenbau und Mechatronik (812)
- Fachbereich Luft- und Raumfahrttechnik (769)
- Fachbereich Bauingenieurwesen (664)
- IfB - Institut für Bioengineering (627)
- INB - Institut für Nano- und Biotechnologien (586)
Has Fulltext
- no (9330) (remove)
Language
Document Type
- Article (5531)
- Conference Proceeding (1421)
- Book (1062)
- Part of a Book (567)
- Patent (177)
- Bachelor Thesis (169)
- Report (83)
- Doctoral Thesis (82)
- Conference: Meeting Abstract (76)
- Other (67)
- Contribution to a Periodical (20)
- Review (18)
- Master's Thesis (17)
- Working Paper (13)
- Conference Poster (5)
- Habilitation (5)
- Preprint (5)
- Talk (5)
- Diploma Thesis (3)
- Part of a Periodical (2)
- Examination Thesis (1)
- Video (1)
Keywords
- Illustration (10)
- Nachhaltigkeit (10)
- Corporate Design (9)
- Erscheinungsbild (8)
- Gamification (8)
- Redesign (7)
- Animation (6)
- Datenschutz (6)
- Deutschland (6)
- Digitalisierung (6)
Recent earthquakes showed that low-rise URM buildings following codecompliant seismic design and details behaved in general very well without substantial damages. Although advances in simulation tools make nonlinear calculation methods more readily accessible to designers, linear analyses will still be the standard design method for years to come. The present paper aims to improve the linear seismic design method by providing a proper definition of the q-factor of URM buildings. Values of q-factors are derived for low-rise URM buildings with rigid diaphragms, with reference to modern structural configurations realized in low to moderate seismic areas of Italy and Germany. The behaviour factor components for deformation and energy dissipation capacity and for overstrength due to the redistribution of forces are derived by means of pushover analyses. As a result of the investigations, rationally based values of the behaviour factor q to be used in linear analyses in the range of 2.0 to 3.0 are proposed.
The Solar-Institut Jülich (SIJ) and the companies Hilger GmbH and Heliokon GmbH from Germany have developed a small-scale cost-effective heliostat, called “micro heliostat”. Micro heliostats can be deployed in small-scale concentrated solar power (CSP) plants to concentrate the sun's radiation for electricity generation, space or domestic water heating or industrial process heat. In contrast to conventional heliostats, the special feature of a micro heliostat is that it consists of dozens of parallel-moving, interconnected, rotatable mirror facets. The mirror facets array is fixed inside a box-shaped module and is protected from weathering and wind forces by a transparent glass cover. The choice of the building materials for the box, tracking mechanism and mirrors is largely dependent on the selected production process and the intended application of the micro heliostat. Special attention was paid to the material of the tracking mechanism as this has a direct influence on the accuracy of the micro heliostat. The choice of materials for the mirror support structure and the tracking mechanism is made in favor of plastic molded parts. A qualification assessment method has been developed by the SIJ in which a 3D laser scanner is used in combination with a coordinate measuring machine (CMM). For the validation of this assessment method, a single mirror facet was scanned and the slope deviation was computed.
Eine Applikation für die soziale Interaktion zwischen Teams und Arbeitnehmern eines Unternehmens, welche Remote und/oder Hybrid arbeiten.
Wissen teilen, Weiterbilden, Wohlfühlen
In den letzten zwei Jahren kam es auf Grund der Corona-Pandemie, trotz der vielen Kommunikationsmöglichkeiten, im Privat-, sowie Arbeitsleben zu erheblichen sozialen Einschränkungen.
Genau hier setzt die Applikation „Companion“ an, um dem Arbeitnehmer das In-Office-Gefühl auch Remote übersetzen zu können. Der Arbeitnehmer kann mit seinen Kollegen sozialisieren, diese besser kennenlernen und wird zusätzlich durch Events und Workshops professionell weitergebildet.
Many of today’s factors make software development more and more complex, such as time pressure, new technologies, IT security risks, et cetera. Thus, a good preparation of current as well as future software developers in terms of a good software engineering education becomes progressively important. As current research shows, Competence Developing Games (CDGs) and Serious Games can offer a potential solution.
This paper identifies the necessary requirements for CDGs to be conducive in principle, but especially in software engineering (SE) education. For this purpose, the current state of research was summarized in the context of a literature review. Afterwards, some of the identified requirements as well as some additional requirements were evaluated by a survey in terms of subjective relevance.
Das wahre Gewicht des Smartphones : eine informative Erfahrung zu den ökologischen Auswirkungen
(2022)
Das Smartphone gehört zu den innovativsten Geräten unserer Zeit und befindet sich in einem ständigen Wandel, der nach immer mehr Leistung, größeren Displays und besseren Kameras strebt. Mit neuen Modellen, die jährlich auf den Markt kommen und den Milliarden Smartphones, die verkauft werden, entsteht aber nicht nur ein großer Markt voller Angebote, sondern gleichzeitig große Probleme für unsere Umwelt und letztlich auch für uns. Die Smartphone-Industrie schadet massiv unserem Ökosystem.
Das Ziel der Arbeit ist die Aufklärung über die Auswirkungen der Smartphone-Industrie. Dafür wurden Visualisierung zu Daten und Prozessen gestaltet, die viele Aspekte des Lebenszyklus des Smartphones mit einbeziehen. Die Betrachter:innen sollen so informativ aufgeklärt werden, ihren eigenen Konsum zu dem Thema überdenken und ein Bewusstsein für ihren Elektronikverbrauch entwickeln.
Die Stadt Augsburg war eine der größten Textilstädte Europas. Seit 2010 präsentiert das Textil- und Industriemuseum (TIM) eine Vielzahl von Exponaten in der alten Kammgarnspinnerei im ehemaligen Augsburger Textilviertel und ist somit ein wichtiger Bestandteil der bayrischen Museumslandschaft und deutschen Textilgeschichte. Neben seiner besonderen Lage überzeugt das TIM vor allem mit einer großen Musterbuchsammlung. Im Fokus des in dieser Arbeit neugestalteten Erscheinungsbildes stehen die verschiedenen Muster, die den textilen Schwerpunkt in den Vordergrund rücken und dem Museum damit einen einprägsamen Wiedererkennungswert geben. Mithilfe des neuen Corporate Designs soll das Museum für regionale und überregionale Besucher:innen attraktiver gemacht und somit die einmalige geschichtliche Bedeutung vermittelt und erhalten werden.
Schlafspindeln – Funktion, Detektion und Nutzung als Biomarker für die psychiatrische Diagnostik
(2022)
Hintergrund:
Die Schlafspindel ist ein Graphoelement des Elektroenzephalogramms
(EEG), das im Leicht- und Tiefschlaf beobachtet werden kann. Veränderungen der
Spindelaktivität wurden für verschiedene psychiatrische Erkrankungen beschrieben. Schlafspindeln zeigen aufgrund ihrer relativ konstanten Eigenschaften Potenzial als Biomarker in der psychiatrischen Diagnostik.
Methode:
Dieser Beitrag liefert einen Überblick über den Stand der Wissenschaft
zu Eigenschaften und Funktionen der Schlafspindeln sowie über beschriebene
Veränderungen der Spindelaktivität bei psychiatrischen Erkrankungen. Verschiedene methodische Ansätze und Ausblicke zur Spindeldetektion werden hinsichtlich deren Anwendungspotenzial in der psychiatrischen Diagnostik erläutert.
Ergebnisse und Schlussfolgerung:
Während Veränderungen der Spindelaktivität
bei psychiatrischen Erkrankungen beschrieben wurden, ist deren exaktes Potenzial für die psychiatrische Diagnostik noch nicht ausreichend erforscht. Diesbezüglicher Erkenntnisgewinn wird in der Forschung gegenwärtig durch ressourcenintensive und fehleranfällige Methoden zur manuellen oder automatisierten Spindeldetektion ausgebremst. Neuere Detektionsansätze, die auf Deep-Learning-Verfahren basieren, könnten die Schwierigkeiten bisheriger Detektionsmethoden überwinden und damit neue Möglichkeiten für die praktisch
Although several successful applications of benchtop nuclear magnetic resonance (NMR) spectroscopy in quantitative mixture analysis exist, the possibility of calibration transfer remains mostly unexplored, especially between high- and low-field NMR. This study investigates for the first time the calibration transfer of partial least squares regressions [weight average molecular weight (Mw) of lignin] between high-field (600 MHz) NMR and benchtop NMR devices (43 and 60 MHz). For the transfer, piecewise direct standardization, calibration transfer based on canonical correlation analysis, and transfer via the extreme learning machine auto-encoder method are employed. Despite the immense resolution difference between high-field and low-field NMR instruments, the results demonstrate that the calibration transfer from high- to low-field is feasible in the case of a physical property, namely, the molecular weight, achieving validation errors close to the original calibration (down to only 1.2 times higher root mean square errors). These results introduce new perspectives for applications of benchtop NMR, in which existing calibrations from expensive high-field instruments can be transferred to cheaper benchtop instruments to economize.
Inference on the basis of high-dimensional and functional data are two topics which are discussed frequently in the current statistical literature. A possibility to include both topics in a single approach is working on a very general space for the underlying observations, such as a separable Hilbert space. We propose a general method for consistently hypothesis testing on the basis of random variables with values in separable Hilbert spaces. We avoid concerns with the curse of dimensionality due to a projection idea. We apply well-known test statistics from nonparametric inference to the projected data and integrate over all projections from a specific set and with respect to suitable probability measures. In contrast to classical methods, which are applicable for real-valued random variables or random vectors of dimensions lower than the sample size, the tests can be applied to random vectors of dimensions larger than the sample size or even to functional and high-dimensional data. In general, resampling procedures such as bootstrap or permutation are suitable to determine critical values. The idea can be extended to the case of incomplete observations. Moreover, we develop an efficient algorithm for implementing the method. Examples are given for testing goodness-of-fit in a one-sample situation in [1] or for testing marginal homogeneity on the basis of a paired sample in [2]. Here, the test statistics in use can be seen as generalizations of the well-known Cramérvon-Mises test statistics in the one-sample and two-samples case. The treatment of other testing problems is possible as well. By using the theory of U-statistics, for instance, asymptotic null distributions of the test statistics are obtained as the sample size tends to infinity. Standard continuity assumptions ensure the asymptotic exactness of the tests under the null hypothesis and that the tests detect any alternative in the limit. Simulation studies demonstrate size and power of the tests in the finite sample case, confirm the theoretical findings, and are used for the comparison with concurring procedures. A possible application of the general approach is inference for stock market returns, also in high data frequencies. In the field of empirical finance, statistical inference of stock market prices usually takes place on the basis of related log-returns as data. In the classical models for stock prices, i.e., the exponential Lévy model, Black-Scholes model, and Merton model, properties such as independence and stationarity of the increments ensure an independent and identically structure of the data. Specific trends during certain periods of the stock price processes can cause complications in this regard. In fact, our approach can compensate those effects by the treatment of the log-returns as random vectors or even as functional data.