Refine
Year of publication
- 2016 (277) (remove)
Institute
- Fachbereich Medizintechnik und Technomathematik (54)
- Fachbereich Chemie und Biotechnologie (44)
- Fachbereich Bauingenieurwesen (35)
- Fachbereich Elektrotechnik und Informationstechnik (35)
- IfB - Institut für Bioengineering (35)
- Fachbereich Wirtschaftswissenschaften (31)
- Fachbereich Luft- und Raumfahrttechnik (28)
- Fachbereich Maschinenbau und Mechatronik (25)
- Fachbereich Energietechnik (17)
- INB - Institut für Nano- und Biotechnologien (15)
Document Type
- Article (116)
- Conference Proceeding (81)
- Part of a Book (27)
- Book (23)
- Other (10)
- Conference: Meeting Abstract (8)
- Report (5)
- Doctoral Thesis (3)
- Part of a Periodical (2)
- Patent (1)
Keywords
- Technical Operations Research (2)
- Additive Manufacturing (1)
- Annulus Fibrosus (1)
- Assessment (1)
- Asymptotic efficiency (1)
- Bacillus atrophaeus (1)
- Balance (1)
- Balanced hypergraph (1)
- Brandfall (1)
- Building Systems (1)
Hintergrund
Die Anwendung und das Verständnis von Statistik sind sehr wichtig für die biomedizinische Forschung und für die klinische Praxis. Dies gilt insbesondere auch zur Abschätzung der Möglichkeiten unterschiedlichster Diagnostik- und Therapieoptionen beim Glaukom. Die scheinbare Komplexität der Statistik, die zum Teil dem „gesunden Menschenverstand“ zu widersprechen scheint, zusammen mit der nur vorsichtigen Akzeptanz der Statistik bei vielen Medizinern können zu bewussten und unbewussten Manipulationen bei der Datendarstellung und -interpretation führen.
Ziel der Arbeit
Ziel ist die verständliche Darstellung einiger typischer Fehler in der medizinisch-statistischen Datenbehandlung.
Material und Methoden
Anhand hypothetischer Beispiele aus der Glaukomdiagnostik erfolgen die Darstellung der Wirkung eines hypotensiven Medikamentes sowie die Beurteilung der Ergebnisse eines diagnostischen Tests. Es werden die typischsten statistischen Einsatzbereiche und Irrtumsquellen ausführlich und verständlich analysiert
Ergebnisse
Mechanismen von Datenmanipulation und falscher Dateninterpretation werden aufgeklärt. Typische Irrtumsquellen bei der statistischen Auswertung und Datendarstellung werden dabei erläutert.
Schlussfolgerungen
Die erläuterten praktischen Beispiele zeigen die Notwendigkeit, die Grundlagen der Statistik zu verstehen und korrekt anwenden zu können. Fehlendes Grundlagenwissen und Halbwissen der medizinischen Statistik können zu folgenschweren Missverständnissen und falschen Entscheidungen in der medizinischen Forschung, aber auch in der klinischen Praxis führen.
Retinal Vessel Analysis (RVA) in the context of subarachnoid hemorrhage: A proof of concept study
(2016)
Background
Timely detection of impending delayed cerebral ischemia after subarachnoid hemorrhage (SAH) is essential to improve outcome, but poses a diagnostic challenge. Retinal vessels as an embryological part of the intracranial vasculature are easily accessible for analysis and may hold the key to a new and non-invasive monitoring technique. This investigation aims to determine the feasibility of standardized retinal vessel analysis (RVA) in the context of SAH.
Methods
In a prospective pilot study, we performed RVA in six patients awake and cooperative with SAH in the acute phase (day 2–14) and eight patients at the time of follow-up (mean 4.6±1.7months after SAH), and included 33 age-matched healthy controls. Data was acquired using a manoeuvrable Dynamic Vessel Analyzer (Imedos Systems UG, Jena) for examination of retinal vessel dimension and neurovascular coupling.
Results
Image quality was satisfactory in the majority of cases (93.3%). In the acute phase after SAH, retinal arteries were significantly dilated when compared to the control group (124.2±4.3MU vs 110.9±11.4MU, p<0.01), a difference that persisted to a lesser extent in the later stage of the disease (122.7±17.2MU, p<0.05). Testing for neurovascular coupling showed a trend towards impaired primary vasodilation and secondary vasoconstriction (p = 0.08, p = 0.09 resp.) initially and partial recovery at the time of follow-up, indicating a relative improvement in a time-dependent fashion.
Conclusion
RVA is technically feasible in patients with SAH and can detect fluctuations in vessel diameter and autoregulation even in less severely affected patients. Preliminary data suggests potential for RVA as a new and non-invasive tool for advanced SAH monitoring, but clinical relevance and prognostic value will have to be determined in a larger cohort.
The aim of this work was to perform a detailed investigation of the use of Selective Laser Melting (SLM) technology to process eutectic silver-copper alloy Ag 28 wt. % Cu (also called AgCu28). The processing occurred with a Realizer SLM 50 desktop machine. The powder analysis (SEM-topography, EDX, particle distribution) was reported as well as the absorption rates for the near-infrared (NIR) spectrum. Microscope imaging showed the surface topography of the manufactured parts. Furthermore, microsections were conducted for the analysis of porosity. The Design of Experiments approach used the response surface method in order to model the statistical relationship between laser power, spot distance and pulse time.
Application of the optical flow method to velocity determination in hydraulic structure models
(2016)
Regardless of size or destination, synthetic biology starts with com-parably small information units, which need to be combined and properly arranged in order to achieve a certain goal. This may be the de novo synthesis of individual genes from oligonucleotides, a shuffling of protein domains in order to create novel biocatalysts, the assembly of multiple enzyme encoding genes in metabolic pathway design, or strain development at the production stage. The CoLibry concept has been designed in order to close the gap between recombinant production of individual genes and genome editing.
To give the exchange of goods and services between the European Union (EU) and the United States (U.S.) new momentum the two parties are currently negotiating the transatlantic free trade agreement Transatlantic Trade and Investment Partnership (TTIP). The aim is to create the largest free trade area in the world. The agreement, once entered into force, will oblige EU countries and the U.S. to further liberalize their markets.
The negotiations on TTIP include a chapter on Electronic Communications/ Telecommunications. The challenge therein will be securing commitments for market access to Electronic Communications services. At the same time, these commitments must reflect the legitimate need for consumer protection issues. The need to reduce Electronic Communications-related non-tariff barriers to trade between the Parties is due to the fact that these markets are heavily regulated. Without transnational rules as to regulations national governments can abuse these regulations to deter the market entry by new (foreign) suppliers. Thus the free trade agreement TTIP affects in many respects regulatory provisions on and access to Electronic Communications markets. The objective of this paper is therefore to examine to what extend the regulatory principles for Electronic Communications markets envisaged under TTIP will result in trade facilitation and regulatory convergence between the EU and the U.S.
As to this question the result of the analysis is that the chapter on Electronic Communications will be an important step towards facilitating trade in Electronic Communications services. At the same time some regulatory convergence will take place, but this convergence will not lead to a (full) harmonization of regulations. Rather the norm, also after TTIP negotiations will have been concluded successfully, will be mutual recognition of different regulatory regimes. Different regulations being the optimal policy response in different market settings will continue to exist. Moreover, it is very unlikely that such regulatory principles for the Electronic Communications sector are a vehicle for a race to the bottom in levels of consumer protection.
In Anbetracht weltweit zunehmend strengerer klimapolitischer
Ziele steigt auch der Druck für Nutzfahrzeughersteller, effizientere und umweltfreundlichere
Technologien zu entwickeln. Den Blick bei der Bewertung dieser
ausschließlich auf die Fahrzeugnutzung zu richten, ist längst nicht mehr zufriedenstellend.
Im Rahmen dieser Analyse wird ein gegenwärtig auf dem Markt erwerblicher
und in deutschen Städten bereits seit Jahren betriebener Hybridbus
energetisch und ökologisch mit einem konventionell angetriebenen, nahezu baugleichen
Modell entlang des Lebensweges bewertet.
Nach Definition von Ziel und Untersuchungsrahmen wird ein Überblick auf bereits
durchgeführte Lebenszyklusanalysen zu Hybridbussen im Stadtverkehr gegeben
und Schlussfolgerungen für die anschließende Analyse abgeleitet. Diese
wird im Rahmen einer energetischen und ökologischen Bewertung beider Produktsysteme
anhand der Parameter "Primärenergieeinsatz" und "CO2äq Emissionen"
praktiziert. Der Fahrzeugrumpf beider Fahrzeuge des gleichen Modells
wird dabei als einheitlich angenommen, sodass bei dem Vergleich der Herstellung
vereinfacht nur die sich unterscheidenden Komponenten des Antriebstranges
berücksichtigt werden. Die Resultate der Wirkungsabschätzung werden als
Differenz des Hybridbusses gegenüber dem Referenzfahrzeug über die einzelnen
Lebenszyklusphasen dargestellt. Schließlich werden Prognosen getroffen, ab
welcher Strecke die bei der Herstellung erzeugten höheren CO2äq Emissionen
des Hybridantriebstranges gegenüber dem Referenzmodell ausgeglichen werden.
Für das Auftreten extremer Wetterereignisse werden für Kernkraftwerke Eintrittshäufigkeiten für nicht mehr beherrschbare Zustände von unter 10⁻⁴/a gefordert. Dies gilt auch für die Einwirkung von Blitzeinschlägen. Die bisherige Nachweisführung zu Blitz- und Überspannungsschutz eines KKW in Deutschland ist deterministisch. In diesem Bericht werden das Vorgehen für einen entsprechenden Nachweis für leittechnische Einrichtungen der Sicherheitstechnik von KKW, der zur geforderten Zielgröße der Eintrittshäufigkeit führt. Die Ergebnisse werden zusammenfassend bewertet.
The light-addressable potentiometric sensor (LAPS) has the unique feature to address different regions of a sensor surface without the need of complex structures. Measurements at different locations on the sensor surface can be performed in a common analyte solution, which distinctly simplifies the fluidic set-up. However, the measurement in a single analyte chamber prevents the application of different drugs or different concentrations of a drug to each measurement spot at the same time as in the case of multi-reservoir-based set-ups. In this work, the authors designed a LAPS-based set-up for cell culture screening that utilises magnetic beads loaded with the endotoxin (lipopolysaccharides, LPS), to generate a spatially distributed gradient of analyte concentration. Different external magnetic fields can be adjusted to move the magnetic beads loaded with a specific drug within the measurement cell. By recording the metabolic activities of a cell layer cultured on top of the LAPS surface, this work shows the possibility to apply different concentrations of a sample along the LAPS measurement spots within a common analyte solution.