Refine
Year of publication
- 2024 (4)
- 2023 (14)
- 2022 (37)
- 2021 (23)
- 2020 (35)
- 2019 (27)
- 2018 (22)
- 2017 (27)
- 2016 (17)
- 2015 (23)
- 2014 (40)
- 2013 (36)
- 2012 (20)
- 2011 (29)
- 2010 (35)
- 2009 (35)
- 2008 (28)
- 2007 (24)
- 2006 (29)
- 2005 (39)
- 2004 (35)
- 2003 (25)
- 2002 (33)
- 2001 (27)
- 2000 (35)
- 1999 (28)
- 1998 (28)
- 1997 (31)
- 1996 (44)
- 1995 (24)
- 1994 (30)
- 1993 (23)
- 1992 (17)
- 1991 (11)
- 1990 (11)
- 1989 (16)
- 1988 (16)
- 1987 (20)
- 1986 (20)
- 1985 (16)
- 1984 (14)
- 1983 (14)
- 1982 (10)
- 1981 (14)
- 1980 (7)
- 1979 (9)
- 1978 (3)
- 1977 (3)
- 1976 (1)
- 1975 (4)
- 1974 (1)
- 1973 (1)
- 1972 (1)
Institute
- Fachbereich Energietechnik (1116) (remove)
Language
- English (589)
- German (524)
- Multiple languages (1)
- Dutch (1)
- Spanish (1)
Document Type
- Article (609)
- Conference Proceeding (259)
- Book (126)
- Part of a Book (84)
- Doctoral Thesis (10)
- Conference: Meeting Abstract (7)
- Report (7)
- Other (4)
- Talk (3)
- Diploma Thesis (2)
Keywords
- Blitzschutz (18)
- Lightning protection (11)
- Earthquake (5)
- Diversity Management (4)
- Energy storage (4)
- Power plants (4)
- Risikomanagement (4)
- Seismic design (4)
- reinforced concrete (4)
- Associated liquids (3)
Ein vorausschauendes Risikomanagement beinhaltet, Risiken für das Unternehmen zu kalkulieren. Es liefert Entscheidungsgrundlagen, um diese Risiken zu begrenzen und es macht transparent, welche Risiken sinnvollerweise über Versicherungen abgedeckt werden sollten. Beim Versicherungsmanagement ist jedoch zu bedenken, dass zur Erreichung bestimmter Ziele Versicherungen nicht immer geeignet sind (z.B. Erhaltung der Lieferfähigkeit). Eintrittswahrscheinlichkeiten bestimmter Risiken lassen sich durch Versicherungen nicht verändern. Bei Unternehmen, die mit umfangreichen elektronischen Einrichtungen produzieren oder Dienstleistungen erbringen (und das sind heutzutage wohl die meisten), muss auch das Risiko durch Blitzeinwirkungen besondere Berücksichtigung finden. Dabei ist zu beachten, dass der Schaden aufgrund der Nicht-Verfügbarkeit der elektronischen Einrichtungen und damit der Produktion bzw. der Dienstleistung und ggf. der Verlust von Daten den Hardware-Schaden an der betroffenen Anlage oft bei weitem übersteigt. Im Blitzschutz gewinnt innovatives Denken in Schadensrisiken langsam an Bedeutung. Risikoanalysen haben die Objektivierung und Quantifizierung der Gefährdung von baulichen Anlagen und ihrer Inhalte durch direkte und indirekte Blitzeinschläge zum Ziel. Seinen Niederschlag hat dieses neue Denken in der neuen deutschen Vornorm DIN V 0185-2 VDE V 0185 Teil 2 [1] gefunden. Die hier vorgegebene Risikoanalyse gewährleistet, dass ein für alle Beteiligten nachvollziehbares Blitzschutz-Konzept erstellt werden kann, das technisch und wirtschaftlich optimiert ist, d.h. bei möglichst geringem Aufwand den notwendigen Schutz gewährleisten kann. Die sich aus der Risikoanalyse ergebenden Schutzmaßnahmen sind dann in den weiteren Normenteilen der neuen Reihe VDE V 0185 [2, 3] detailliert beschrieben.
Ein vorausschauendes Risikomanagement beinhaltet, Risiken zu kalkulieren. Es liefert Entscheidungsgrundlagen, um diese Risiken zu begrenzen und es macht transparent,welche Risiken sinnvoll über Versicherungen abgedeckt werden sollten. Bei Unternehmen, die mit umfangreichen elektronischenEinrichtungen produzieren oder Dienstleistungen erbringen (und das sind heutzutage wohl die meisten), muss auch das Risiko durch Blitzeinwirkungen besondere Berücksichtigung finden. Dabei ist zu beachten, dass der Schaden aufgrund der Nichtverfügbarkeit der elektronischen Einrichtungen und damit derProduktion bzw. der Dienstleistung und ggf. der Verlust von Daten den Hardwareschaden an der betroffenen Anlage oft bei weitem übersteigt.
Alle Unternehmen sind vielfältigen Risiken ausgesetzt, die Finanz- und Betriebsbereiche einschließlich Dienstleistungen betreffen können. Die Firmen müssen üblicherweise Risiken eingehen, um im Wettbewerb bestehen zu können. Entscheidend ist, dass man sich über die Risiken bewusst ist, diese einschätzen und kontrollieren kann. Falsche Einschätzungen, Versäumnisse und Fehlentscheidungen können empfindliche finanzielle Schäden bis hin zum Totalverlust nach sich ziehen. Ein effektives Risikomanagement ist heute als wichtiger Sicherheitsfaktor anzusehen und sollte zur strategischen Unternehmensführung gehören. Ein vorausschauendes Risikomanagement beinhaltet, Risiken für das Unternehmen zu kalkulieren. Es liefert Entscheidungsgrundlagen, um diese Risiken zu begrenzen und es macht transparent, welche Risiken sinnvollerweise über Versicherungen abgedeckt werden sollten. Beim Versicherungsmanagement ist jedoch zu bedenken, dass zur Erreichung bestimmter Ziele Versicherungen nicht geeignet sind (z.B. Erhaltung der Lieferfähigkeit). Eintrittswahrscheinlichkeiten bestimmter Risiken lassen sich durch Versicherungen nicht verändern. Bei Unternehmen, die mit umfangreichen elektronischen Einrichtungen produzieren oder Dienstleistungen erbringen (und das sind heutzutage wohl die meisten), muss auch das Risiko durch Blitzeinwirkungen besondere Berücksichtigung finden. Dabei ist zu beachten, dass der Schaden aufgrund der Nicht-Verfügbarkeit der elektronischen Einrichtungen und damit der Produktion bzw. der Dienstleistung und ggf. der Verlust von Daten den Hardware-Schaden an der betroffenen Anlage oft bei weitem übersteigt. Im Blitzschutz gewinnt innovatives Denken in Schadensrisiken langsam an Bedeutung. Risikoanalysen haben die Objektivierung und Quantifizierung der Gefährdung von baulichen Anlagen und ihrer Inhalte durch direkte und indirekte Blitzeinschläge zum Ziel. Seinen Niederschlag hat dieses neue Denken in der neuen deutschen Norm DIN V 0185-2 VDE V 0185 Teil 2 gefunden. Die hier vorgegebene Risikoanalyse gewährleistet, dass ein für alle Beteiligten nachvollziehbares Blitzschutz-Konzept erstellt werden kann, das technisch und wirtschaftlich optimiert ist, d.h. bei möglichst geringem Aufwand den notwendigen Schutz gewährleisten kann. Die sich aus der Risikoanalyse ergebenden Schutzmaßnahmen sind dann in den weiteren Normenteilen der neuen Reihe VDE V 0185 detailliert beschrieben.
Für das Auftreten extremer Wetterereignisse werden für Kernkraftwerke Eintrittshäufigkeiten für nicht mehr beherrschbare Zustände von unter 10⁻⁴/a gefordert. Dies gilt auch für die Einwirkung von Blitzeinschlägen. Die bisherige Nachweisführung zu Blitz- und Überspannungsschutz eines KKW in Deutschland ist deterministisch. In diesem Bericht werden das Vorgehen für einen entsprechenden Nachweis für leittechnische Einrichtungen der Sicherheitstechnik von KKW, der zur geforderten Zielgröße der Eintrittshäufigkeit führt. Die Ergebnisse werden zusammenfassend bewertet.
SHEMAT-Suite: An open-source code for simulating flow, heat and species transport in porous media
(2020)
SHEMAT-Suite is a finite-difference open-source code for simulating coupled flow, heat and species transport in porous media. The code, written in Fortran-95, originates from geoscientific research in the fields of geothermics and hydrogeology. It comprises: (1) a versatile handling of input and output, (2) a modular framework for subsurface parameter modeling, (3) a multi-level OpenMP parallelization, (4) parameter estimation and data assimilation by stochastic approaches (Monte Carlo, Ensemble Kalman filter) and by deterministic Bayesian approaches based on automatic differentiation for calculating exact (truncation error-free) derivatives of the forward code.
Das Ziel der vorliegenden Arbeit ist die Specklereduktion bei der Infrarotlaser-gestützten abbildenden Ferndetektion von TNT-Oberflächenkontaminationen. Für die Detektion wird die Probenoberfläche mit einem abstimmbaren Quantenkaskadenlaser bei verschiedenen Wellenzahlen im Spektralbereich von 1340cm-1 bis 1380cm-1 bestrahlt, während eine Infrarot-Kamera Bilder der bestrahlten Fläche aufzeichnet. Diese Bilder werden dann so verarbeitet, dass im Ausgabebild die chemisch spezifische TNT-Absorption durch eine Änderung der Helligkeit örtlich aufgelöst erkennbar werden. Da kohärente Strahlung, welche beispielsweise an optisch rauen Oberflächen reflektiert wird, aufgrund der stochastischen Verteilung der Oberflächenrautiefe mit der einfallenden Strahlung lateral unterschiedlich interferiert, entsteht ein „Rauschen“ in der aufgezeichneten Strahlungsleistungsverteilung, das sog. Speckle-Phänomen. Die Empfindlichkeit der oben skizzierten Lasergestützten Messtechnik wird im Wesentlichen durch diesen Effekt limitiert. Um die durch Laserspeckles verursachten Rauschanteile zu reduzieren, gibt es verschiedene Möglichkeiten. Durch Reduktion von zeitlicher und räumlicher Kohärenz der Strahlung wird deren Interferenzfähigkeit reduziert und durch Variieren des Specklemusters während einer Bildaufzeichnung führen Mittelungen unkorrelierter Rauschanteile zu einer Specklekontrastreduktion. Letztere Möglichkeit resultiert daraus, dass Laserspeckles statistisch durch die Familie der Gammaverteilungen beschrieben werden können. Demnach verbessert sich das Signal-zu-Rausch-Verhältnis mit der Anzahl gemittelter, unkorrelierter Rauschmuster proportional zur Wurzel dieser Anzahl. Ein im MIR-Spektralbereich umsetzbarer Ansatz, der all diese Möglichkeiten berücksichtigt, wurde bereits 1971 von Lowenthal und Joyeaux vorgeschlagen und im Rahmen der vorliegenden Arbeit für den infraroten Spektralbereich adaptiert. Dazu wird die Strahlung mit zwei CVD-Diamant-Wafern moduliert; ein Wafer ist dabei stationär und der andere rotiert mit ca. 70Hz. In der vorliegenden Arbeit konnte mit diesem Ansatz eine Verbesserung des Signal-zu-Rausch-Verhältnisses in der betrachteten Strahlungsleistungs¬verteilung von ursprünglich 3 auf etwa 45 erzielt werden. So konnten erstmals TNT-Kontaminationen von bis zu 10µg/cm² in einem Abstand von 5m abbildend nachgewiesen werden. Dies entspricht der Kontamination durch einen mit TNT leicht verunreinigten Fingerabdruck.
With proven impact of statistical fracture analysis on fracture classifications, it is desirable to minimize the manual work and to maximize repeatability of this approach. We address this with an algorithm that reduces the manual effort to segmentation, fragment identification and reduction. The fracture edge detection and heat map generation are performed automatically. With the same input, the algorithm always delivers the same output. The tool transforms one intact template consecutively onto each fractured specimen by linear least square optimization, detects the fragment edges in the template and then superimposes them to generate a fracture probability heat map.
We hypothesized that the algorithm runs faster than the manual evaluation and with low (< 5 mm) deviation. We tested the hypothesis in 10 fractured proximal humeri and found that it performs with good accuracy (2.5 mm ± 2.4 mm averaged Euclidean distance) and speed (23 times faster). When applied to a distal humerus, a tibia plateau, and a scaphoid fracture, the run times were low (1–2 min), and the detected edges correct by visual judgement. In the geometrically complex acetabulum, at a run time of 78 min some outliers were considered acceptable. An automatically generated fracture probability heat map based on 50 proximal humerus fractures matches the areas of high risk of fracture reported in medical literature.
Such automation of the fracture analysis method is advantageous and could be extended to reduce the manual effort even further.
Die Studie erörtert anhand eines Fallbeispiels aus der Mathematik für Ingenieur*innen, wie didaktische Gestaltungsprinzipien für Soziale Präsenz, Kollaboration und das Lösen von praxisnahen Problemen mit mathematischem Denken in einer Online-Umgebung aussehen können. Hierfür zieht der
Beitrag den forschungsmethodologischen Rahmen Design-Based Research (DBR) hinzu und berichtet über Zwischenergebnisse. DBR wird an dieser Stelle als eine systematische Herangehensweise an kurzfristige Lehrveränderungen und als Chance auf dem Weg zu einer neuen Hochschullehre nach der COVID-19-Pandemie dargestellt, die theoretische und empirische Erkenntnisse mit Praxisverknüpfung und -relevanz vereint.
Simulating the electromagnetic‐thermal treatment of thin aluminium layers for adhesion improvement
(2015)
A composite layer material used in packaging industry is made from joining layers of different materials using an adhesive. An important processing step in the production of aluminium-containing composites is the surface treatment and consequent coating of adhesive material on the aluminium surface. To increase adhesion strength between aluminium layer and the adhesive material, the foil is heat treated. For efficient heating, induction heating was considered as state-of-the-art treatment process. Due to the complexity of the heating process and the unpredictable nature of the heating source, the control of the process is not yet optimised. In this work, a finite element analysis of the process was established and various process parameters were studied. The process was simplified and modelled in 3D. The numerical model contains an air domain, an aluminium layer and a copper coil fitted with a magnetic field concentrating material. The effect of changing the speed of the aluminium foil (or rolling speed) was studied with the change of the coil current. Statistical analysis was used for generating a general control equation of coil current with changing rolling speed.
The performance and biomass yield of the perennial energy plant Sida hermaphrodita (hereafter referred to as Sida) as a feedstock for biogas and solid fuel was evaluated throughout one entire growing period at agricultural field conditions. A Sida plant development code was established to allow comparison of the plant growth stages and biomass composition. Four scenarios were evaluated to determine the use of Sida biomass with regard to plant development and harvest time: (i) one harvest for solid fuel only; (ii) one harvest for biogas production only; (iii) one harvest for biogas production, followed by a harvest of the regrown biomass for solid fuel; and (iv) two consecutive harvests for biogas production. To determine Sida's value as a feedstock for combustion, we assessed the caloric value, the ash quality, and melting point with regard to DIN EN ISO norms. The results showed highest total dry biomass yields of max. 25 t ha⁻¹, whereas the highest dry matter of 70% to 80% was obtained at the end of the growing period. Scenario (i) clearly indicated the highest energy recovery, accounting for 439 288 MJ ha⁻¹; the energy recovery of the four scenarios from highest to lowest followed this order: (i) ≫ (iii) ≫ (iv) > (ii). Analysis of the Sida ashes showed a high melting point of >1500 °C, associated with a net calorific value of 16.5–17.2 MJ kg⁻¹. All prerequisites for DIN EN ISO norms were achieved, indicating Sida's advantage as a solid energy carrier without any post-treatment after harvesting. Cell wall analysis of the stems showed a constant lignin content after sampling week 16 (July), whereas cellulose had already reached a plateau in sampling week 4 (April). The results highlight Sida as a promising woody, perennial plant, providing biomass for flexible and multipurpose energy applications.