Refine
Year of publication
- 2018 (84) (remove)
Institute
- Fachbereich Wirtschaftswissenschaften (18)
- Fachbereich Maschinenbau und Mechatronik (14)
- Fachbereich Bauingenieurwesen (8)
- Fachbereich Elektrotechnik und Informationstechnik (8)
- Fachbereich Architektur (7)
- Fachbereich Energietechnik (7)
- Fachbereich Medizintechnik und Technomathematik (7)
- Fachbereich Luft- und Raumfahrttechnik (5)
- Fachbereich Chemie und Biotechnologie (4)
- Fachbereich Gestaltung (4)
Has Fulltext
- no (84) (remove)
Language
- German (84) (remove)
Document Type
- Article (41)
- Part of a Book (16)
- Conference Proceeding (12)
- Book (8)
- Conference: Meeting Abstract (2)
- Patent (2)
- Other (1)
- Report (1)
- Working Paper (1)
Keywords
- Datenschutz (2)
- Digitale Transformation (2)
- Literaturanalyse (2)
- Bahadur efficiency (1)
- Cloud Computing (1)
- Datenschutzgrundverordnung (1)
- Datenschutzrecht (1)
- EBSCO Discovery Service (1)
- EU-DS-GVO (1)
- EUDSGVO (1)
Is part of the Bibliography
- no (84)
Extrem hohe Blitzströme
(2018)
Blitze sind nach wie vor eine enorme Schadensquelle für Personenschäden, Brände, mechanische Zerstörungen und insbesondere auch Überspannungen. Das zeigen nicht zuletzt aktuelle Statistiken der Schadensversicherer. Immer wieder gibt es Meldungen über extrem hohe Blitzströme, die natürlich auch zu großen Schäden und Zerstörungen führen können. Dabei werden Scheitelwerte von teilweise deutlich über 300 kA genannt. Dies wirft Fragen auf, da die „klassische“ Blitzstatistik (z. B. nach CIGRE und IEC [8][10]) bisher solche Werte nicht kennt. Diese extremen Blitzströme werden meist aus den Daten von Blitzortungssystemen ermittelt.
Das anhaltende Wachstum wissenschaftlicher Veröffentlichungen wirft die Fragestellung auf, wie Literaturana-lysen im Rahmen von Forschungsprozessen digitalisiert und somit produktiver realisiert werden können. Insbesondere in informationstechnischen Fachgebieten ist die Forschungspraxis durch ein rasant wachsendes Publikationsaufkommen gekennzeichnet. Infolgedessen bietet sich der Einsatz von Methoden der Textanalyse (Text Analytics) an, die Textdaten automatisch vorbereiten und verarbeiten können. Erkenntnisse entstehen dabei aus Analysen von Wortarten und Subgruppen, Korrelations- sowie Zeitreihenanalysen. Dieser Beitrag stellt die Konzeption und Realisierung eines Prototypen vor, mit dem Anwender bibliographische Daten aus der etablierten Literaturdatenbank EBSCO Discovery Service mithilfe textanalytischer Methoden erschließen können. Der Prototyp basiert auf dem Analysesystem IBM Watson Explorer, das Hochschulen lizenzkostenfrei zur Verfügung steht. Potenzielle Adressaten des Prototypen sind Forschungseinrichtungen, Beratungsunternehmen sowie Entscheidungsträger in Politik und Unternehmenspraxis.
Angesichts des anhaltenden Wachstums wissenschaftlicher Veröffentlichungen werden Instrumente benötigt, um Literaturanalysen durch Digitalisierung produktiver zu gestalten. Dieser Beitrag stellt einen Ansatz vor, der bibliographische Daten aus der Literaturdatenbank EBSCO Discovery Service mithilfe von Text-Analytics-Methoden erschließt. Die Lösung basiert auf dem Textanalysesystem IBM Watson Explorer und eignet sich für explorative Literaturanalysen, um beispielsweise den Status quo emergierender Technologiefelder in der Literatur zu reflektieren. Die generierten Ergebnisse sind in den Kontext der zunehmenden Werkzeugunterstützung des Literaturrechercheprozesses einzuordnen und können für intra- sowie interinstitutionelle Wissenstransferprozesse in Forschungs- und Beratungskontexten genutzt werden.
The efficiency concepts of Bahadur and Pitman are used to compare the Wilcoxon tests in paired and independent survey samples. A comparison through the length of corresponding confidence intervals is also done. Simple conditions characterizing the dominance of a procedure are derived. Statistical tests for checking these conditions are suggested and discussed.
Nahezu 100.000 denkbare Strukturen kann ein Getriebe bei gleicher Funktion aufweisen - je nach Ganganzahl und gefordertem Freiheitsgrad. Mit dem traditionellen Ansatz bei der Entwicklung, einzelne vielversprechende Systemkonfigurationen manuell zu identifizieren und zu vergleichen, können leicht innovative und vor allem kostenminimale Lösungen übersehen werden. Im Rahmen eines Forschungsprojekts hat die TU Darmstadt spezielle Optimierungsmethoden angewendet, um auch bei großen Lösungsräumen zielsicher ein für die individuellen Zielstellungen optimales Layout zu finden.