Refine
Year of publication
- 2016 (11) (remove)
Institute
- Fachbereich Medizintechnik und Technomathematik (11) (remove)
Language
- German (11) (remove)
Document Type
- Conference Proceeding (4)
- Article (3)
- Doctoral Thesis (2)
- Other (1)
- Report (1)
Keywords
- Effizienz (1)
- Hypothesentests (1)
- Vergleich von Experimenten (1)
- efficiency (1)
- testing hypotheses (1)
Is part of the Bibliography
- no (11)
Für die Verarbeitung von natürlicher Sprache ist ein wichtiger Zwischenschritt das Parsing, bei dem für Sätze der natürlichen Sprache Ableitungsbäume bestimmt werden. Dieses Verfahren ist vergleichbar zum Parsen formaler Sprachen, wie z. B. das Parsen eines Quelltextes. Die Parsing-Methoden der formalen Sprachen, z. B. Bottom-up-Parser, können nicht auf das Parsen der natürlichen Sprache übertragen werden, da keine Formalisierung der natürlichen Sprachen existiert [3, 12, 23, 30].
In den ersten Programmen, die natürliche Sprache verarbeiten [32, 41], wurde versucht die natürliche Sprache mit festen Regelmengen zu verarbeiten. Dieser Ansatz stieß jedoch schnell an seine Grenzen, da die Regelmenge nicht vollständig sowie nicht minimal ist und wegen der benötigten Menge an Regeln schwer zu verwalten ist. Die Korpuslinguistik [22] bot die Möglichkeit, die Regelmenge durch Supervised-Machine-Learning-Verfahren [2] abzulösen.
Teil der Korpuslinguistik ist es, große Textkorpora zu erstellen und diese mit sprachlichen Strukturen zu annotieren. Zu diesen Strukturen gehören sowohl die Wortarten als auch die Ableitungsbäume der Sätze. Vorteil dieser Methodik ist es, dass repräsentative Daten zur Verfügung stehen. Diese Daten werden genutzt, um mit Supervised-Machine-Learning-Verfahren die Gesetzmäßigkeiten der natürliche Sprachen zu erlernen.
Das Maximum-Entropie-Verfahren ist ein Supervised-Machine-Learning-Verfahren, das genutzt wird, um natürliche Sprache zu erlernen. Ratnaparkhi [25] nutzt Maximum-Entropie, um Ableitungsbäume für Sätze der natürlichen Sprache zu erlernen. Dieses Verfahren macht es möglich, die natürliche Sprache (abgebildet als Σ∗) trotz einer fehlenden formalen Grammatik zu parsen.
Hintergrund
Die Anwendung und das Verständnis von Statistik sind sehr wichtig für die biomedizinische Forschung und für die klinische Praxis. Dies gilt insbesondere auch zur Abschätzung der Möglichkeiten unterschiedlichster Diagnostik- und Therapieoptionen beim Glaukom. Die scheinbare Komplexität der Statistik, die zum Teil dem „gesunden Menschenverstand“ zu widersprechen scheint, zusammen mit der nur vorsichtigen Akzeptanz der Statistik bei vielen Medizinern können zu bewussten und unbewussten Manipulationen bei der Datendarstellung und -interpretation führen.
Ziel der Arbeit
Ziel ist die verständliche Darstellung einiger typischer Fehler in der medizinisch-statistischen Datenbehandlung.
Material und Methoden
Anhand hypothetischer Beispiele aus der Glaukomdiagnostik erfolgen die Darstellung der Wirkung eines hypotensiven Medikamentes sowie die Beurteilung der Ergebnisse eines diagnostischen Tests. Es werden die typischsten statistischen Einsatzbereiche und Irrtumsquellen ausführlich und verständlich analysiert
Ergebnisse
Mechanismen von Datenmanipulation und falscher Dateninterpretation werden aufgeklärt. Typische Irrtumsquellen bei der statistischen Auswertung und Datendarstellung werden dabei erläutert.
Schlussfolgerungen
Die erläuterten praktischen Beispiele zeigen die Notwendigkeit, die Grundlagen der Statistik zu verstehen und korrekt anwenden zu können. Fehlendes Grundlagenwissen und Halbwissen der medizinischen Statistik können zu folgenschweren Missverständnissen und falschen Entscheidungen in der medizinischen Forschung, aber auch in der klinischen Praxis führen.
Robotergestütztes System für ein verbessertes neuromuskuläres Aufbautraining der Beinstrecker
(2016)
Neuromuskuläres Aufbautraining der Beinstrecker ist ein wichtiger Bestandteil in der Rehabilitation und Prävention von Muskel-Skelett-Erkrankungen. Effektives Training erfordert hohe Muskelkräfte, die gleichzeitig hohe Belastungen von bereits geschädigten Strukturen bedeuten. Um trainingsinduzierte Schädigungen zu vermeiden, müssen diese Kräfte kontrolliert werden. Mit heutigen Trainingsgeräten können diese Ziele allerdings nicht erreicht werden. Für ein sicheres und effektives Training sollen durch den Einsatz der Robotik, Sensorik, eines Regelkreises sowie Muskel-Skelett-Modellen Belastungen am Zielgewebe direkt berechnet und kontrolliert werden. Auf Basis zweier Vorstudien zu möglichen Stellgrößen wird der Aufbau eines robotischen Systems vorgestellt, das sowohl für Forschungszwecke als auch zur Entwicklung neuartiger Trainingsgeräte verwendet werden kann.
Es werden Effizienzbegriffe zum Vergleich von statistischen Tests basierend auf verschiedenen statistischen Experimenten eingeführt. Dabei handelt es sich um die schon aus dem Vergleich von statistischen Tests in je demselben Modell bekannten asymptotischen relativen Effizienzen wie die Hodges-Lehmann-Effizienz, die Bahadur-Effizienz und die Pitman-Effizienz sowie um Kriterien basierend auf Volumina von Konfidenzbereichen. Effizienzaussagen werden unter anderem für Likelihood-Quotienten-Tests und Waldsche Tests im Rahmen eines allgemeinen multivariaten parametrischen Modells erhalten. Statistische Tests zur Prüfung von Hypothesen über die relative Wirksamkeit zweier Experimente werden vorgeschlagen. Auf der Grundlage der erhaltenen Ergebnisse erfolgt ein Vergleich der Wirksamkeit von korrespondierenden Verfahren bei verbundener Stichprobenerhebung und unabhängiger Stichprobenerhebung. Die Rolle der Kovarianzmatrix bei verbundener Stichprobenerhebung wird insbesondere unter der Annahme, dass die zugrunde liegenden Verteilungen durch k-parametrische Exponentialfamilien modellierbar sind, herausgearbeitet. Verbindungen zu Effizienzbegriffen bei Punkt- und Konfidenzbereichsschätzverfahren werden aufgezeigt. Ausführlichere Untersuchungen betreffen die korrespondierenden Hotellingschen T²-Tests im multivariaten Normalverteilungsfall, die klassischen Homogenitatstests bei k × k-Kontingenztafeln und die Wilcoxon Tests in nichtparametrischen Lagealternativmodellen
Visualization of the recovery process of defects in a cultured cell layer by chemical imaging sensor
(2016)
The chemical imaging sensor is a field-effect sensor which is able to visualize both the distribution of ions (in LAPS mode) and the distribution of impedance (in SPIM mode) in the sample. In this study, a novel cell assay is proposed, in which the chemical imaging sensor operated in SPIM mode is applied to monitor the recovery of defects in a cell layer brought into proximity of the sensing surface. A reduced impedance at a defect formed artificially in a cell layer was successfully visualized in a photocurrent image. The cell layer was cultured over two weeks, during which the temporal change of the photocurrent distribution corresponding to the recovery of the defect was observed.