Refine
Year of publication
Institute
- Fachbereich Medizintechnik und Technomathematik (371) (remove)
Language
- German (371) (remove)
Document Type
- Article (225)
- Book (52)
- Conference Proceeding (31)
- Part of a Book (18)
- Report (15)
- Patent (13)
- Doctoral Thesis (8)
- Other (3)
- Habilitation (2)
- Course Material (1)
Keywords
- CAD (7)
- Bauingenieurwesen (6)
- civil engineering (6)
- Finite-Elemente-Methode (4)
- Einspielen <Werkstoff> (3)
- shakedown analysis (3)
- Architektur (2)
- Traglast (2)
- architecture (2)
- limit analysis (2)
Nah- versus Nachtoderfahrungen
Nahtoderfahrungen (NTE) sind ein Phänomen aus der Kategorie „außergewöhnliche Bewusstseinserfahrungen“. Sie treten in unmittelbarer Nähe des eigenen Todes auf. Oft, aber nicht immer, handelt es sich dabei um Erfahrungen von Personen, die durch ärztliche Maßnahmen wiederbelebt wurden und später davon berichten (NTE-ler). Jedoch kommen solche Phänomene auch bei Menschen vor, die während einer schweren Erkrankung eine lebensbedrohliche Krise haben, hiervon aber spontan genesen.
Den NTE ähnlich sind auch sogenannte Nachtod-erfahrungen sowie spontane Erlebnisse, die im Rahmen anderer außergewöhnlicher Stresssituationen auftreten. Von Nachtoderfahrungen spricht man, wenn die Betroffenen anlässlich des Todes von geliebten Angehörigen oder Freunden Erlebnisse haben, die inhaltlich ebenfalls, zumindest aber teilweise, denen von NTE entsprechen.
Nachtoderfahrungen sowie spontane NTE-ähnliche Erlebnisse unterscheiden sich jedoch von den echten NTE zumeist sowohl quantitativ als auch qualitativ. Unter einem quantitativen Unterschied versteht man in diesem Zusammenhang eine in der Regel geringer ausgeprägte Komplexität, als sie sehr vielen NTE zu eigen ist. Da sich aber auch viele NTE selbst bezüglich ihrer Komplexität unterscheiden, ist der Hauptunterschied qualitativer Natur: Echte NTE besitzen gegenüber den anderen hier erwähnten Phänomenen eine größere inhaltliche und emotionale Tiefe. Sie begleiten die Betroffenen anschließend ein Leben lang – zumeist mit positiven, in Einzelfällen aber auch mit negativen Folgen, die bis zu einem späteren Suizid reichen können.
Die genannten außergewöhnlichen Bewusstseinsphänomene lassen sich in ihrer Gesamtheit bei rund 5 % der Bevölkerung finden. NTE im Speziellen haben hiervon einen durchaus bedeutenden Anteil. Je nach Studie geben zwischen 18 % und 40 % aller Personen, die reanimiert wurden, an, währenddessen eine NTE erlebt zu haben. Dass nicht alle eine solche Erfahrung machen, wird von Kritikern gern dahingehend interpretiert, NTE seien rein physiologischer und keineswegs spiritueller Natur. Jedoch sollte man bedenken, dass im Fall einer rein neurophysiologischen Grundlage von NTE dann bei jedem ein solches Phänomen zu erwarten wäre, so wie beispielsweise auch die Symptome einer Hypoglykämie im Wesentlichen immer dieselben sind.
Unser Schlüssel zur Ewigkeit
(2015)
Visualization of the recovery process of defects in a cultured cell layer by chemical imaging sensor
(2016)
The chemical imaging sensor is a field-effect sensor which is able to visualize both the distribution of ions (in LAPS mode) and the distribution of impedance (in SPIM mode) in the sample. In this study, a novel cell assay is proposed, in which the chemical imaging sensor operated in SPIM mode is applied to monitor the recovery of defects in a cell layer brought into proximity of the sensing surface. A reduced impedance at a defect formed artificially in a cell layer was successfully visualized in a photocurrent image. The cell layer was cultured over two weeks, during which the temporal change of the photocurrent distribution corresponding to the recovery of the defect was observed.
Hintergrund
Die Anwendung und das Verständnis von Statistik sind sehr wichtig für die biomedizinische Forschung und für die klinische Praxis. Dies gilt insbesondere auch zur Abschätzung der Möglichkeiten unterschiedlichster Diagnostik- und Therapieoptionen beim Glaukom. Die scheinbare Komplexität der Statistik, die zum Teil dem „gesunden Menschenverstand“ zu widersprechen scheint, zusammen mit der nur vorsichtigen Akzeptanz der Statistik bei vielen Medizinern können zu bewussten und unbewussten Manipulationen bei der Datendarstellung und -interpretation führen.
Ziel der Arbeit
Ziel ist die verständliche Darstellung einiger typischer Fehler in der medizinisch-statistischen Datenbehandlung.
Material und Methoden
Anhand hypothetischer Beispiele aus der Glaukomdiagnostik erfolgen die Darstellung der Wirkung eines hypotensiven Medikamentes sowie die Beurteilung der Ergebnisse eines diagnostischen Tests. Es werden die typischsten statistischen Einsatzbereiche und Irrtumsquellen ausführlich und verständlich analysiert
Ergebnisse
Mechanismen von Datenmanipulation und falscher Dateninterpretation werden aufgeklärt. Typische Irrtumsquellen bei der statistischen Auswertung und Datendarstellung werden dabei erläutert.
Schlussfolgerungen
Die erläuterten praktischen Beispiele zeigen die Notwendigkeit, die Grundlagen der Statistik zu verstehen und korrekt anwenden zu können. Fehlendes Grundlagenwissen und Halbwissen der medizinischen Statistik können zu folgenschweren Missverständnissen und falschen Entscheidungen in der medizinischen Forschung, aber auch in der klinischen Praxis führen.
Für die Verarbeitung von natürlicher Sprache ist ein wichtiger Zwischenschritt das Parsing, bei dem für Sätze der natürlichen Sprache Ableitungsbäume bestimmt werden. Dieses Verfahren ist vergleichbar zum Parsen formaler Sprachen, wie z. B. das Parsen eines Quelltextes. Die Parsing-Methoden der formalen Sprachen, z. B. Bottom-up-Parser, können nicht auf das Parsen der natürlichen Sprache übertragen werden, da keine Formalisierung der natürlichen Sprachen existiert [3, 12, 23, 30].
In den ersten Programmen, die natürliche Sprache verarbeiten [32, 41], wurde versucht die natürliche Sprache mit festen Regelmengen zu verarbeiten. Dieser Ansatz stieß jedoch schnell an seine Grenzen, da die Regelmenge nicht vollständig sowie nicht minimal ist und wegen der benötigten Menge an Regeln schwer zu verwalten ist. Die Korpuslinguistik [22] bot die Möglichkeit, die Regelmenge durch Supervised-Machine-Learning-Verfahren [2] abzulösen.
Teil der Korpuslinguistik ist es, große Textkorpora zu erstellen und diese mit sprachlichen Strukturen zu annotieren. Zu diesen Strukturen gehören sowohl die Wortarten als auch die Ableitungsbäume der Sätze. Vorteil dieser Methodik ist es, dass repräsentative Daten zur Verfügung stehen. Diese Daten werden genutzt, um mit Supervised-Machine-Learning-Verfahren die Gesetzmäßigkeiten der natürliche Sprachen zu erlernen.
Das Maximum-Entropie-Verfahren ist ein Supervised-Machine-Learning-Verfahren, das genutzt wird, um natürliche Sprache zu erlernen. Ratnaparkhi [25] nutzt Maximum-Entropie, um Ableitungsbäume für Sätze der natürlichen Sprache zu erlernen. Dieses Verfahren macht es möglich, die natürliche Sprache (abgebildet als Σ∗) trotz einer fehlenden formalen Grammatik zu parsen.
Robotergestütztes System für ein verbessertes neuromuskuläres Aufbautraining der Beinstrecker
(2016)
Neuromuskuläres Aufbautraining der Beinstrecker ist ein wichtiger Bestandteil in der Rehabilitation und Prävention von Muskel-Skelett-Erkrankungen. Effektives Training erfordert hohe Muskelkräfte, die gleichzeitig hohe Belastungen von bereits geschädigten Strukturen bedeuten. Um trainingsinduzierte Schädigungen zu vermeiden, müssen diese Kräfte kontrolliert werden. Mit heutigen Trainingsgeräten können diese Ziele allerdings nicht erreicht werden. Für ein sicheres und effektives Training sollen durch den Einsatz der Robotik, Sensorik, eines Regelkreises sowie Muskel-Skelett-Modellen Belastungen am Zielgewebe direkt berechnet und kontrolliert werden. Auf Basis zweier Vorstudien zu möglichen Stellgrößen wird der Aufbau eines robotischen Systems vorgestellt, das sowohl für Forschungszwecke als auch zur Entwicklung neuartiger Trainingsgeräte verwendet werden kann.
Es werden Effizienzbegriffe zum Vergleich von statistischen Tests basierend auf verschiedenen statistischen Experimenten eingeführt. Dabei handelt es sich um die schon aus dem Vergleich von statistischen Tests in je demselben Modell bekannten asymptotischen relativen Effizienzen wie die Hodges-Lehmann-Effizienz, die Bahadur-Effizienz und die Pitman-Effizienz sowie um Kriterien basierend auf Volumina von Konfidenzbereichen. Effizienzaussagen werden unter anderem für Likelihood-Quotienten-Tests und Waldsche Tests im Rahmen eines allgemeinen multivariaten parametrischen Modells erhalten. Statistische Tests zur Prüfung von Hypothesen über die relative Wirksamkeit zweier Experimente werden vorgeschlagen. Auf der Grundlage der erhaltenen Ergebnisse erfolgt ein Vergleich der Wirksamkeit von korrespondierenden Verfahren bei verbundener Stichprobenerhebung und unabhängiger Stichprobenerhebung. Die Rolle der Kovarianzmatrix bei verbundener Stichprobenerhebung wird insbesondere unter der Annahme, dass die zugrunde liegenden Verteilungen durch k-parametrische Exponentialfamilien modellierbar sind, herausgearbeitet. Verbindungen zu Effizienzbegriffen bei Punkt- und Konfidenzbereichsschätzverfahren werden aufgezeigt. Ausführlichere Untersuchungen betreffen die korrespondierenden Hotellingschen T²-Tests im multivariaten Normalverteilungsfall, die klassischen Homogenitatstests bei k × k-Kontingenztafeln und die Wilcoxon Tests in nichtparametrischen Lagealternativmodellen