Refine
Year of publication
Document Type
- Article (608)
- Conference Proceeding (259)
- Book (125)
- Part of a Book (83)
- Doctoral Thesis (10)
- Report (7)
- Other (4)
- Talk (3)
- Diploma Thesis (2)
- Contribution to a Periodical (1)
- Master's Thesis (1)
- Poster (1)
Language
- English (579)
- German (522)
- Multiple languages (1)
- nld (1)
- Spanish (1)
Keywords
- Blitzschutz (18)
- Lightning protection (11)
- Earthquake (5)
- Diversity Management (4)
- Energy storage (4)
- Power plants (4)
- Risikomanagement (4)
- Seismic design (4)
- reinforced concrete (4)
- Associated liquids (3)
- Concentrated solar power (3)
- Elektromagnetischer Schutzschild (3)
- Hybrid energy system (3)
- INODIS (3)
- Lightning (3)
- Out-of-plane load (3)
- Risikoabschätzung (3)
- Risk management (3)
- Seismic loading (3)
- Stahlbetonkonstruktion (3)
Institute
- Fachbereich Energietechnik (1104) (remove)
The sandfish (Scincus scincus) is a lizard having the remarkable ability to move through desert sand for significant distances. It is well adapted to living in loose sand by virtue of a combination of morphological and behavioural specializations. We investigated the bodyform of the sandfish using 3D-laserscanning and explored its locomotion in loose desert sand using fast nuclear magnetic resonance (NMR) imaging. The sandfish exhibits an in-plane meandering motion with a frequency of about 3 Hz and an amplitude of about half its body length accompanied by swimming-like (or trotting) movements of its limbs. No torsion of the body was observed, a movement required for a digging-behaviour. Simple calculations based on the Janssen model for granular material related to our findings on bodyform and locomotor behaviour render a local decompaction of the sand surrounding the moving sandfish very likely. Thus the sand locally behaves as a viscous fluid and not as a solid material. In this fluidised sand the sandfish is able to “swim” using its limbs.
In the presented paper data collected from the field related to damage statistics of electrical and electronic apparatus in household are reported and investigated. These damages (total number approx. 74000 cases), registered by five German insurance companies in 2005 and 2006, were adviced by customers as caused by lightning overvoltages. With the use of stochastical methods it is possible, to reasses the collected data and to distinguish between cases, which are with high probability caused by lightning overvoltages, and those, which are not. If there was an indication for a direct strike, this case was excluded, so the focus was only on indirect lightning flashes, i.e. only flashes to ground near the structure and flashes to or nearby an incoming service line were investigated. The data from the field contain the location of damaged apparatus (residence of the policy holder) and the distances of the nearest cloud-to-ground stroke to the location of the damage registered by the German lightning location network BLIDS at the date of damage. The statistical data along with some complementary numerical simulations allow to verify the correspondence of the Standards rules used for IEC 62305-2 with the field data and to define some correction needs. The results could lead to a better understanding whether a damage reported to an insurance company is really caused by indirect lightning, or not.
Das Ziel der vorliegenden Arbeit ist die Specklereduktion bei der Infrarotlaser-gestützten abbildenden Ferndetektion von TNT-Oberflächenkontaminationen. Für die Detektion wird die Probenoberfläche mit einem abstimmbaren Quantenkaskadenlaser bei verschiedenen Wellenzahlen im Spektralbereich von 1340cm-1 bis 1380cm-1 bestrahlt, während eine Infrarot-Kamera Bilder der bestrahlten Fläche aufzeichnet. Diese Bilder werden dann so verarbeitet, dass im Ausgabebild die chemisch spezifische TNT-Absorption durch eine Änderung der Helligkeit örtlich aufgelöst erkennbar werden. Da kohärente Strahlung, welche beispielsweise an optisch rauen Oberflächen reflektiert wird, aufgrund der stochastischen Verteilung der Oberflächenrautiefe mit der einfallenden Strahlung lateral unterschiedlich interferiert, entsteht ein „Rauschen“ in der aufgezeichneten Strahlungsleistungsverteilung, das sog. Speckle-Phänomen. Die Empfindlichkeit der oben skizzierten Lasergestützten Messtechnik wird im Wesentlichen durch diesen Effekt limitiert. Um die durch Laserspeckles verursachten Rauschanteile zu reduzieren, gibt es verschiedene Möglichkeiten. Durch Reduktion von zeitlicher und räumlicher Kohärenz der Strahlung wird deren Interferenzfähigkeit reduziert und durch Variieren des Specklemusters während einer Bildaufzeichnung führen Mittelungen unkorrelierter Rauschanteile zu einer Specklekontrastreduktion. Letztere Möglichkeit resultiert daraus, dass Laserspeckles statistisch durch die Familie der Gammaverteilungen beschrieben werden können. Demnach verbessert sich das Signal-zu-Rausch-Verhältnis mit der Anzahl gemittelter, unkorrelierter Rauschmuster proportional zur Wurzel dieser Anzahl. Ein im MIR-Spektralbereich umsetzbarer Ansatz, der all diese Möglichkeiten berücksichtigt, wurde bereits 1971 von Lowenthal und Joyeaux vorgeschlagen und im Rahmen der vorliegenden Arbeit für den infraroten Spektralbereich adaptiert. Dazu wird die Strahlung mit zwei CVD-Diamant-Wafern moduliert; ein Wafer ist dabei stationär und der andere rotiert mit ca. 70Hz. In der vorliegenden Arbeit konnte mit diesem Ansatz eine Verbesserung des Signal-zu-Rausch-Verhältnisses in der betrachteten Strahlungsleistungs¬verteilung von ursprünglich 3 auf etwa 45 erzielt werden. So konnten erstmals TNT-Kontaminationen von bis zu 10µg/cm² in einem Abstand von 5m abbildend nachgewiesen werden. Dies entspricht der Kontamination durch einen mit TNT leicht verunreinigten Fingerabdruck.
Die Einleitung zur Norm DIN EN 62305-3 beschreibt klar und ein - deutig: Der vorliegende Teil der IEC 62305 behandelt den Schutz von baulichen Anlagen gegen materielle Schäden und den Schutz von Personen gegen Verletzungen durch Berührungs- und Schrittspannungen. Als das wesentlichste und effektivste Mittel zum Schutz von baulichen Anlagen gegen materielle Schäden gilt das Blitz - schutzsystem (LPS).
[Paper of the X International Symposium on Lightning Protection 9th - 13th November, 2009 - Curitiba, Brazil. 6 pages] The international standard IEC 62305-3, published in 2006, requires as an integral part of the lightning protection system (LPS) the consideration of a separation distance between the conductors of the LPS and metal and electrical installations inside the structure to be protected. IEC 62305-3 gives two different methods for this calculation: a standard, simplified approach and a more detailed approach, which differ especially regarding the treatment of the current sharing effect on the LPS conductors. Hence, different results for the separation distance are possible, leading to some discrepancies in the use of the standard. The standard approach defined in the main part (Clause 6.3) and in Annex C of the standard in some cases may lead to a severe oversizing of the required separation distance. The detailed approach described in Annex E naturally gives more correct results. However, a calculation of the current sharing amongst all parts of the air-termination and downconductor network is necessary, in many cases requiring the use of network analysis programs. In this paper simplified methods for the assessment of the current sharing are presented, which are easy to use as well as sufficiently adequate.
8. VDE/ABB-Blitzschutztagung, 29. - 30. Oktober 2009 in Neu-Ulm. Blitzschutztagung <8, 2009, Neu-Ulm> Berlin : VDE Verl. 2009 Großkraftwerke können durch Blitzentladungen mit potentiellen Auswirkungen auf deren Verfügbarkeit und Sicherheit gefährdet werden. Ein sehr spezielles Szenario, welches aus aktuellem Anlass zu untersuchen war, betrifft den kraftwerksnahen Blitzeinschlag in die Hochspannungs-Freileitung am Netzanschluss der Anlage. Wird nun noch ein sogenannter Schirmfehler unterstellt, d.h. der direkte Blitzeinschlag erfolgt in ein Leiterseil des Hoch- bzw. Höchstspannungsnetzes und nicht in das darüber gespannte Erdseil, so bedeutet dies eine extreme elektromagnetische Einwirkung. Der vorliegende Beitrag befasst sich mit der Simulation eines solchen Blitzeinschlages und dessen Auswirkungen auf den Netzanschluss und die Komponenten der elektrischen Eigenbedarfsanlagen eines Kraftwerks auf den unterlagerten Spannungsebenen. Die dabei gewonnenen Erkenntnisse lassen sich ohne Einschränkungen auf Industrieanlagen mit Mittelspannungs-Netzanschluss und ohne eigener Stromversorgung übertragen.
A new solar desalination system with heat recovery for decentralised drinking water production
(2009)
In diesem Artikel werden zunächst einleitend der Gasmarkt Deutschland und der sich daraus ergebende Speicherbedarf skizziert. Folgend wird auf verschiedene Speichernutzen aus betriebswirtschaftlicher Perspektive eingegangen und die in diesem Artikel vorgestellten Bewertungsverfahren einleitend beschrieben. In diesem Artikel werden stochastische Optimierungsmethoden aufgegriffen, die sowohl eine Bewertung der Speicher gegenüber einem Spotpreis, als auch gegenüber einer gesamten Forwardcurve ermöglichen. Hierzu werden zunächst Modelle zur Beschreibung der Marktpreise vorgestellt und anhand empirischer Daten kalibriert. Dann wird eine beispielhafte Speicherscheibe zunächst auf Basis der LeastSquareMonteCarloTechnik gegenüber dem stochastischen mehrfaktoriellen Spotpreismodell bewertet. Hieran schließt sich die Vorstellung der Bewertung sowie des Hedgings gegenüber der Forwardcurve an. Abschließend erfolgt eine vergleichende Gegenüberstellung beider Verfahren.
Risiken des Handels
(2009)
In order for traditional masonry to stay a competitive building material in seismically active regions there is an urgent demand for modern, deformation-based verification procedures which exploit the nonlinear load bearing reserves. The Capacity Spectrum Method (CSM) is a widely accepted design approach in the field of reinforced concrete and steel construction. It compares the seismic action with the load-bearing capacity of the building considering nonlinear material behavior with its post-peak capacity. The bearing capacity of the building is calculated iteratively using single wall capacity curves. This paper presents a new approach for the bilinear approximation of single wall capacity curves in the style of EC6/EC8 respectively FEMA 306/FEMA 356 based on recent shear wall test results of the European Collective-Research Project “ESECMaSE”. The application of the CSM to masonry structures by using bilinear approximations of capacity curves as input is demonstrated on the example of a typical German residential home.
Lightning safety guidelines
(2010)
Objective: As high-field cardiac MRI (CMR) becomes more widespread the propensity of ECG to interference from electromagnetic fields (EMF) and to magneto-hydrodynamic (MHD) effects increases and with it the motivation for a CMR triggering alternative. This study explores the suitability of acoustic cardiac triggering (ACT) for left ventricular (LV) function assessment in healthy subjects (n=14). Methods: Quantitative analysis of 2D CINE steady-state free precession (SSFP) images was conducted to compare ACT’s performance with vector ECG (VCG). Endocardial border sharpness (EBS) was examined paralleled by quantitative LV function assessment. Results: Unlike VCG, ACT provided signal traces free of interference from EMF or MHD effects. In the case of correct Rwave recognition, VCG-triggered 2D CINE SSFP was immune to cardiac motion effects—even at 3.0 T. However, VCG-triggered 2D SSFP CINE imaging was prone to cardiac motion and EBS degradation if R-wave misregistration occurred. ACT-triggered acquisitions yielded LV parameters (end-diastolic volume (EDV), endsystolic volume (ESV), stroke volume (SV), ejection fraction (EF) and left ventricular mass (LVM)) comparable with those derived fromVCG-triggered acquisitions (1.5 T: ESVVCG=(56± 17) ml, EDVVCG=(151±32)ml, LVMVCG=(97±27) g, SVVCG=(94± 19)ml, EFVCG=(63±5)% cf. ESVACT= (56±18) ml, EDVACT=(147±36) ml, LVMACT=(102±29) g, SVACT=(91± 22) ml, EFACT=(62±6)%; 3.0 T: ESVVCG=(55±21) ml, EDVVCG=(151±32) ml, LVMVCG=(101±27) g, SVVCG=(96±15) ml, EFVCG=(65±7)% cf. ESVACT=(54±20) ml, EDVACT=(146±35) ml, LVMACT= (101±30) g, SVACT=(92±17) ml, EFACT=(64±6)%). Conclusions: ACT’s intrinsic insensitivity to interference from electromagnetic fields renders
Quantifying and minimizing uncertainty is vital for simulating technically and economically successful geothermal reservoirs. To this end, we apply a stochastic modelling sequence, a Monte Carlo study, based on (i) creating an ensemble of possible realizations of a reservoir model, (ii) forward simulation of fluid flow and heat transport, and (iii) constraining post-processing using observed state variables. To generate the ensemble, we use the stochastic algorithm of Sequential Gaussian Simulation and test its potential fitting rock properties, such as thermal conductivity and permeability, of a synthetic reference model and—performing a corresponding forward simulation—state variables such as temperature. The ensemble yields probability distributions of rock properties and state variables at any location inside the reservoir. In addition, we perform a constraining post-processing in order to minimize the uncertainty of the obtained distributions by conditioning the ensemble to observed state variables, in this case temperature. This constraining post-processing works particularly well on systems dominated by fluid flow. The stochastic modelling sequence is applied to a large, steady-state 3-D heat flow model of a reservoir in The Hague, Netherlands. The spatial thermal conductivity distribution is simulated stochastically based on available logging data. Errors of bottom-hole temperatures provide thresholds for the constraining technique performed afterwards. This reduce the temperature uncertainty for the proposed target location significantly from 25 to 12 K (full distribution width) in a depth of 2300 m. Assuming a Gaussian shape of the temperature distribution, the standard deviation is 1.8 K. To allow a more comprehensive approach to quantify uncertainty, we also implement the stochastic simulation of boundary conditions and demonstrate this for the basal specific heat flow in the reservoir of The Hague. As expected, this results in a larger distribution width and hence, a larger, but more realistic uncertainty estimate. However, applying the constraining post-processing the uncertainty is again reduced to the level of the post-processing without stochastic boundary simulation. Thus, constraining post-processing is a suitable tool for reducing uncertainty estimates by observed state variables.
Die Erdbebensicherheit von Gebäuden aus Kalksandsteinmauerwerk ist aktuell nach DIN 4149 mit linearen Verfahren nachzuweisen. Dies führt in der praktischen Anwendung zu großen Problemen, da selbst traditionell übliche Grundrisse teilweise nicht mehr ohne zusätzliche Maßnahmen nachweisbar sind. Zur Lösung dieser Problematik wurden von der deutschen Mauerwerksindustrie auf nationaler und europäischer Ebene Forschungsprojekte initiiert, deren Ergebnisse in Form von statisch nichtlinearen Verfahren Eingang in den Nationalen Anhang zur DIN EN 1998-1 [12] gefunden haben. Mit den Verfahren wird die Nachweissituation zukünftig grundlegend verbessert, da mit diesen die Tragwerksreserven wesentlich besser ausgenutzt werden können. Im Folgenden wird die Anwendung der Verfahren am Beispiel einer Reihenhauszeile aus Kalksandsteinmauerwerk demonstriert. Der Nachweis der Reihenhäuser wurde im Rahmen einer Zustimmung im Einzelfall, die vom Bundesverband Kalksandsteinindustrie eV in Hannover koordiniert wurde, durch unabhängige Gutachter und die Bauaufsicht eingehend geprüft und für richtig befunden. Die Durchführung des Nachweises erfolgte auf Grundlage eines an der RWTH Aachen entwickelten neuen Nachweiskonzeptes. Die baupraktische Anwendbarkeit und einfache Nachvollziehbarkeit dieses Konzepts ist durch eine softwaretechnische Umsetzung sichergestellt.
Moderne Bauwerke müssen heute eine hohe energetische Leistungsfähigkeit aufweisen und gleichzeitig alle einwirkenden Lasten sicher abtragen. Dies stellt insbesondere in Erdbebengebieten hohe Anforderungen an die verwendeten Baustoffe. Am baupraktischen Beispiel einer Doppelhaushälfte wird demonstriert, dass die Symbiose aus energieeffizientem und gleichzeitig erdbebensicherem Bauen in der höchsten deutschen Erdbebenzone mit monolithischem Ziegelmauerwerk gut realisierbar ist. Als Ziegelmauerwerk werden für die Außenwände wärmetechnisch optimierte Hochlochziegel verwendet, die sowohl die Anforderungen der Energieeinsparverordnung 2009 als auch die Anforderungen an Mauerwerkbaustoffe nach den aktuellen Erdbebennormen erfüllen. Der Erdbebennachweis der Doppelhaushälfte erfolgt mit einem nichtlinearen Nachweisverfahren, das für eine einfache praktische Anwendung programmtechnisch umgesetzt wurde. Für den Nachweis wurden aus zyklischen Schubwandversuchen ermittelte Last-Verformungskurven verwendet. Das gesamte in Deutschland noch nicht normativ geregelte Nachweiskonzept wurde im Rahmen einer Zustimmung im Einzelfall geprüft und genehmigt.
We analyze the influence of dipole-dipole interactions in an electromagnetically induced transparency set up for a density at the onset of cooperative effects. To this end, we include mean-field models for the influence of local-field corrections and radiation trapping into our calculation. We show both analytically and numerically that the polarization contribution to the local field strongly modulates the phase of a weak pulse. We give an intuitive explanation for this local-field-induced phase modulation and demonstrate that it distinctively differs from the nonlinear self-phase-modulation that a strong pulse experiences in a Kerr medium.
Numerical solution of the heat equation with non-linear, time derivative-dependent source term
(2010)
The mathematical modeling of heat conduction with adsorption effects in coated metal structures yields the heat equation with piecewise smooth coefficients and a new kind of source term. This term is special, because it is non-linear and furthermore depends on a time derivative. In our approach we reformulated this as a new problem for the usual heat equation, without source term but with a new non-linear coefficient. We gave an existence and uniqueness proof for the weak solution of the reformulated problem. To obtain a numerical solution, we developed a semi-implicit and a fully implicit finite volume method. We compared these two methods theoretically as well as numerically. Finally, as practical application, we simulated the heat conduction in coated aluminum fibers with adsorption in the zeolite coating. Copyright © 2010 John Wiley & Sons, Ltd.
Future evolution of risk management for structures : Advancement for the future IEC 62305-2 Ed3
(2011)
Kompakter Aufbau eines lichtadressierbaren potentiometrischen Sensors mit verfahrbarem Diodenlaser
(2011)
Speicheroptimierung
(2011)
In dieser Lektion wurden beginnend mit der Darstellung des fundamentalen Wandels
des Gasmarktes die daraus folgenden Implikationen für die Einsatzweise von
Gasspeichern abgeleitet. Anschließend wurden zwei Bewertungs- und Steuerungsverfahren für einen Gasspeicher an den beiden Marktstufen Termin- und Spotmarkt methodisch vorgestellt und anhand von Beispielrechnungen illustriert.
Das Verfahren zur Bewertung und Steuerung im Terminmarkt stellt ein sehr
robustes und methodisch einfaches Verfahren dar. Hierbei wird die Saisonalität
der Forwardkurve bzw. deren Veränderungen arbitragefrei mithilfe des Speichers
ausgenutzt. Dieses Verfahren kann nicht den gesamten Zeitwert des Speichers
ausweisen. Es zieht in jedem Zeitpunkt nur die aktuellen Informationen der Forwardkurve zur Entscheidung heran. Es bildet aber keine bedingte Erwartung über
zukünftige Erträge und deren Beeinflussung durch die aktuelle Speicherfahrweise,
um hieraus eine optimale Entscheidung zu formulieren.
Bei der Bewertung gegenüber dem Spotmarkt mithilfe der Least-Squares-Monte-
Carlo-Simulation wird in einer stochastischen Optimierung dagegen der volle Zeitwert des Speichers und damit der gesamte Zusatznutzen der Flexibilität ermittelt. Hierdurch leiten sich auch wesentlich andere Hedging-Empfehlungen als im ersten Verfahren ab, um diesen zu sichern. Der Einsatz der beiden Verfahren im Alltag zur Bewirtschaftung des Speichers hängt insbesondere vom Know-how, den Speicherparametern und der Risikobereitschaft des Handels ab. Beide Strategien liefern hierzu Hedging-Empfehlungen ab, mit welchem der zugrunde liegende Wert gesichert werden kann. Risikoaverse Händler, die einen Großteil des inneren Wertes sichern wollen, könnten im Terminmarkt einen Großteil des Speichers mithilfe des „Intrinsic Rolling“-Verfahrens bewirtschaften. Sie würden hierdurch den saisonalen Spread in der Forwardkurve rollierend sichern. Gleichzeitig kann ein kleinerer Anteil mithilfe der stochastischen Optimierung und den damit verbundenen Ausübungsgrenzen gegenüber dem Spotmarkt bewirtschaftet werden.
In einem liquiden vollständigen Markt wird eine Steuerung des Speichers allein
gegenüber den vorhandenen Marktstufen vorgenommen und der Wert für alle
Marktteilnehmer objektiv messbar. Für den Fall, dass der Markt illiquide ist und
hierdurch z. B. eine Kundenlast nicht allein am Termin- und Spotmarkt jederzeit
gedeckt werden kann, erscheint es notwendig, den Speicher im Kontext einer Portfoliooptimierung zu bewerten. Dies wird in der nächsten Lektion vorgenommen.
Hierbei ist aber zu beachten, dass der Speicher dadurch eine individualisierte Wertkomponente erhält, die von der konkreten Ausgestaltung des jeweiligen Portfolios abhängt.
The proposed Den Haag Zuidwest district heating system of the city of The Hague consists of a deep doublet in a Jurassic sandstone layer that is designed for a production temperature of 75 °C and a reinjection temperature of 40 °C at a flow rate of 150 m3 h−1. The prediction of reservoir temperature and production behavior is crucial for success of the proposed geothermal doublet. This work presents the results of a study of the important geothermal and geohydrological issues for the doublet design. In the first phase of the study, the influences of the three-dimensional (3D) structures of anticlines and synclines on the temperature field were examined. A comprehensive petrophysical investigation was performed to build a large scale 3D-model of the reservoir. Several bottomhole temperatures (BHTs), as well as petrophysical logs were used to calibrate the model using thermal conductivity measurements on 50 samples from boreholes in different lithological units in the study area. Profiles and cross sections extracted from the calculated temperature field were used to study the temperature in the surrounding areas of the planned doublet. In the second phase of the project, a detailed 3D numerical reservoir model was set up, with the aim of predicting the evolution of the producer and injector temperatures, and the extent of the cooled area around the injector. The temperature model from the first phase provided the boundary conditions for the reservoir model. Hydraulic parameters for the target horizons, such as porosity and permeability, were taken from data available from the nearby exploration wells. The simulation results are encouraging as no significant thermal breakthrough is predicted. For the originally planned location of the producer, the extracted water temperature is predicted to be around 79 °C, with an almost negligible cooling in the first 50 years of production. When the producer is located shallower parts of the reservoir, the yield water temperatures is lower, starting at ≈76 °C and decreasing to ≈74 °C after 50 years of operation. This comparatively larger decrease in temperature with time is caused by the structural feature of the reservoir, namely a higher dip causes the cooler water to easily move downward. In view of the poor reservoir data, the reservoir simulation model is constructed to allow iterative updates using data assimilation during planned drilling, testing, and production phases. Measurements during an 8 h pumping test carried out in late 2010 suggest that a flow rate of 150 m3 h−1 is achievable. Fluid temperatures of 76.5 °C were measured, which is very close to the predicted value.
Möglichkeiten und Grenzen der Anwendbarkeit statisch nichtlinearer Verfahren nach DIN EN 1998-1
(2011)
The msprop program presented in this work is capable of solving the Maxwell–Schrödinger equations for one or several laser fields propagating through a medium of quantum optical few-level systems in one spatial dimension and in time. In particular, it allows to numerically treat systems in which a laser field interacts with the medium with both its electric and magnetic component at the same time. The internal dynamics of the few-level system is modeled by a quantum optical master equation which includes coherent processes due to optical transitions driven by the laser fields as well as incoherent processes due to decay and dephasing. The propagation dynamics of the laser fields is treated in slowly varying envelope approximation resulting in a first order wave equation for each laser field envelope function. The program employs an Adams predictor formula second order in time to integrate the quantum optical master equation and a Lax–Wendroff scheme second order in space and time to evolve the wave equations for the fields. The source function in the Lax–Wendroff scheme is specifically adapted to allow taking into account the simultaneous coupling of a laser field to the polarization and the magnetization of the medium. To reduce execution time, a customized data structure is implemented and explained. In three examples the features of the program are demonstrated and the treatment of a system with a phase-dependent cross coupling of the electric and magnetic field component of a laser field is shown.
Partikelmesstechnik
(2012)
Der Schutz von Produkten vor der Kontamination durch Partikel gilt als eine zentrale Aufgabe der Reinraumtechnik. Da es dabei um Kontaminationseffekte weit unterhalb der visuellen Wahrnehmbarkeit geht, braucht es leistungsfähige Verfahren, um die Messgröße „Partikelkontamination“ über den gesamten Bereich, den Anwender fordern, präzise zu bestimmen. Neben der Partikelhäufigkeit ist dabei die Größe der Partikel, die sowohl das Transportverhalten wie auch die mögliche Wirkung auf das Produkt beeinflusst, von entscheidender Bedeutung. Ferner kann es für die Ermittlung von Kontaminationsquellen von Interesse sein, die Form und die chemische Natur der Partikel zu bestimmen (z. B. textile Fasern, Metallabrieb, flüssige Tröpfchen). Die Partikelhäufigkeit wird üblicherweise als Konzentration, d. h. bezogen auf das analysierte Gasvolumen angegeben. Bei den in reinen Technologien üblichen niedrigen Konzentrationen dient als Häufigkeitsmaß die Partikelanzahlkonzentration, also die Partikelanzahl pro Volumeneinheit des Trägermediums.
Often, detailed simulations of heat conduction in complicated, porous media have large runtimes. Then homogenization is a powerful tool to speed up the calculations by preserving accurate solutions at the same time. Unfortunately real structures are generally non-periodic, which requires unpractical, complicated homogenization techniques. We demonstrate in this paper, that the application of simple, periodic techniques to realistic media, that are just close to periodic, gives accurate, approximative solutions. In order to obtain effective parameters for the homogenized heat equation, we have to solve a so called “cell problem”. In contrast to periodic structures it is not trivial to determine a suitable unit cell, which represents a non-periodic media. To overcome this problem, we give a rule of thumb on how to choose a good cell. Finally we demonstrate the efficiency of our method for virtually generated foams as well as real foams and compare these results to periodic structures.