Refine
Year of publication
- 2016 (114) (remove)
Document Type
- Article (38)
- Book (21)
- Part of a Book (20)
- Conference Proceeding (15)
- Other (10)
- Report (4)
- Doctoral Thesis (2)
- Part of Periodical (2)
- Patent (1)
- Talk (1)
Language
- German (114) (remove)
Keywords
- Brandfall (1)
- Designpraxis (1)
- EN 1993-1-2 (1)
- Effizienz (1)
- Einbetten in das Internet der Dinge (1)
- Forschung, pränormativ (1)
- Hypothesentests (1)
- Minimal-Ansatz für Embedded-Systeme (1)
- Referenzmodellierung (1)
- TM Forum (1)
- Tragwerksbemessung (1)
- Unternehmensarchitektur (1)
- Unternehmenstransformation (1)
- Vergleich von Experimenten (1)
- efficiency (1)
- enhanced Telecom Operations Map (eTOM) (1)
- structural design (1)
- testing hypotheses (1)
Institute
- Fachbereich Wirtschaftswissenschaften (28)
- Fachbereich Bauingenieurwesen (22)
- Fachbereich Maschinenbau und Mechatronik (13)
- Fachbereich Medizintechnik und Technomathematik (11)
- Fachbereich Chemie und Biotechnologie (10)
- Fachbereich Elektrotechnik und Informationstechnik (9)
- Fachbereich Energietechnik (7)
- Fachbereich Luft- und Raumfahrttechnik (6)
- IfB - Institut für Bioengineering (6)
- Solar-Institut Jülich (4)
- ZHQ - Bereich Hochschuldidaktik und Evaluation (4)
- FH Aachen (2)
- Fachbereich Architektur (2)
- IBB - Institut für Baustoffe und Baukonstruktionen (2)
- INB - Institut für Nano- und Biotechnologien (2)
- Nowum-Energy (2)
Kalkulation
(2016)
Das Kapitel behandelt die Kosten- und Preisermittlung, die Kostenvorgabe und Kostenkontrolle.
Der Angebotspreis wird aufgeschlüsselt in die Einzelkosten der Teilleistungen, die Baustellengemeinkosten, die Allgemeinen Geschäftskosten und einen Zuschlag für Wagnis und Gewinn. Auf der Basis der Angebotskalkulation werden die Vorgaben für die Kostenkontrolle entwickelt.
In Deutschland liegt der Anteil der Windkraft an der Gesamtstromerzeugung bei 13,3% mit mehr als 25.000 installierten Windenergieanlagen (WEA). Weltweit erfährt die Windbranche ein rasantes Wachstum. Indien und China berichten eine jährliche Wachstumsrate an Neuinstallationen von 45%. Die Technologie zur Erzeugung elektrischer Energie aus Windkraft ist noch vergleichsweise jung. Durch die weltweit steigende Anzahl an Windenergieanlagen wächst zunehmend der Bedarf an innovativen Wartungslösungen. Komponenten wie Generator oder Getriebe sind inzwischen weitestgehend ausgereift. Der Fokus richtet sich zunehmend auf die wesentliche Kernkomponente - die Rotorblätter.
Industriekletterer inspizieren die Rotorblätter oder Türme i.d.R.
in einem zwei Jahres Rhythmus. Sie werden zunehmend durch Seilarbeitsbühnen unterstützt. Für größere Reparaturen kommen Kräne zum Einsatz, mit denen das Rotorblatt für die Instandhaltung demontiert wird. Die Standardinspektion besteht aus Sicht- und Klopfprüfung der Rotorblattoberfläche und ist nur bei sehr ruhiger Wetterlage durchführbar. Seit September 2014 wird das Forschungsprojekt SMART (Scanning, Monitoring, Analysis, Repair and Transportation), Entwicklung einer Wartungsplattform für WEA, vom BMWi gefördert. Das Konsortium besteht aus zwei Firmen und der
Fachhochschule Aachen. Die SMART-Anlage klettert reibschlüssig am Turm der WEA mittels speziellen Kettenfahrwerken (Abbildung) auf- und abwärts. Ein ringförmiges Spannsystems, basierend auf dem Konzept der „Nürnberger“-Schere, erzeugt die erforderliche Anpresskraft für den Kletterprozess. Wettergeschützte Arbeitskabinen ermöglichen die ganzjährige Instandhaltung von Rotorblättern und ebenso Türmen. Dadurch können Wartungsarbeiten auf 24 Stunden am Tag ausgeweitet werden. Der kombinierte Einsatz (Sensorfusion) bildgebender Messtechnik wie Thermografie, Ultraschall, und Terahertz in der Arbeitskabine kann die Dokumentation, Effizienz und Qualität der Instandhaltungsarbeiten erheblich verbessern. Langfristiges Ziel von SMART ist ein Condition Monitoring für Rotorblätter und Türme auf Basis digitalisierter dreidimensionaler Volumenscans. Der kooperative Einsatz mit UAVs erweitert die Instandhaltungsstrategie. UAVs ermöglichen die schnelle, kostengünstige globale optische Inspektion von Rotorblattoberflächen zur Detektion potentieller Fehlstellen. Der „Proof-of-Concept“ Meilenstein wurde mit der Demonstration eines funktionsfähigen Modells im Dezember 2015 erfolgreich abgeschlossen.
Der Beitrag fokussiert die Frage nach dem Stand des durch die Bologna-Reform angestoßenen Kulturwandels im Hinblick auf Kompetenzorientierung am Beispiel der Technischen Universität Hamburg (TUHH). An der TUHH wird bereits seit einigen Jahren daran gearbeitet, die Lehre grundlegend neu auszurichten. Hierfür setzt das hochschuldidaktische "Zentrum für Lehre und Lernen" (ZLL) verschiedene Maßnahmen ein, wie z.B. eine finanzielle und didaktische Unterstützung von Lehrenden bei der Umstellung ihrer Veranstaltungen, Weiterqualifizierungsangebote und Informationsmaterial. Die Maßnahmen ebenso wie die innovierten Veranstaltungen werden von Lehrenden und Studierenden gut evaluiert. Nach dem Ansatz des Constructive Alignments lässt sich jedoch davon ausgehen, dass der Bereich der Prüfungen für eine Einschätzung des Status Quo der Kompetenzorientierung besonders relevant ist. Dieser wird deshalb anhand der beiden Kriterien Prüfungsformate und Schwierigkeitsstufen von Prüfungsaufgaben näher beleuchtet, die eng mit der Kompetenzorientierung zusammen hängen. Ergebnisse hierzu aus einer universitätsweiten Datenbank zur Studienorganisation sowie aus einer Online-Umfrage unter Studierenden weisen darauf hin, dass das Prüfungsformat "Klausur" nach wie vor am stärksten verbreitet ist; zugleich sind die Studierenden nach einer Selbsteinschätzung in Prüfungen vorrangig mit Aufgaben auf den Taxonomieniveaus "Wiedergeben" und "Anwenden" konfrontiert. Dies lässt sich als Hinweis darauf interpretieren, dass es im Hinblick auf eine Kompetenzorientierung in den Prüfungen noch weiteren Veränderungsbedarf gibt.
Verfügbarkeit und Nachhaltigkeit sind wichtige Anforderungen bei der Planung langlebiger technischer Systeme. Meist werden bei Lebensdaueroptimierungen lediglich einzelne Komponenten vordefinierter Systeme untersucht. Ob eine optimale Lebensdauer eine gänzlich andere Systemvariante bedingt, wird nur selten hinterfragt. Technical Operations Research (TOR) erlaubt es, aus Obermengen technischer Systeme automatisiert die lebensdaueroptimale Systemstruktur auszuwählen. Der Artikel zeigt dies am Beispiel eines hydrostatischen Getriebes.
Das Gesetz gegen Wettbewerbsbeschränkungen bildet die Grundlage für die Verordnung über die Vergabe öffentlicher Aufträge, aus der sich die Vergabe- und Vertragsordnungen für Freiberufliche Leistungen (VOF), für Lieferungen und Leistungen (VOL) und für Bauleistungen (VOB) ableiten. Die dabei in Frage kommenden Vergabeverfahren und die einzelnen Schwellenwerte gemäß EU-Recht werden detailliert aufbereitet und im Zusammenhang dargestellt.
Die für die Ausgestaltung von Bauverträgen notwendigen Grundlagen des Werkvertragsrecht nach BGB sowie die branchenspezifischen Allgemeinen Geschäftsbedingungen in Form der Vertragsordnung für Bauleistungen (VOB) mit ihren Zusätzlichen und Besonderen Vertragsbedingungen werden intensiv aufbereitet. Das Zustandekommen eines Bauvertrages ergibt sich dann aus der notwendigen Leistungsbeschreibung mit einem Leistungsverzeichnis und verschiedenen Positionen oder in Form einer Funktionalen Leistungsbeschreibung (Beschreibung mit Leistungsprogramm).
Das Auslandsgeschäft der Baubranche (Bauausführende Unternehmen sowie Beratende Ingenieure und Consultants) wird von den jeweils vorliegenden Internationalen Wettbewerbsbedingungen bestimmt, deren Zusammenhänge anhand umfangreicher statistischer Daten und anhand von Beispielen dargestellt werden.
Für die Verarbeitung von natürlicher Sprache ist ein wichtiger Zwischenschritt das Parsing, bei dem für Sätze der natürlichen Sprache Ableitungsbäume bestimmt werden. Dieses Verfahren ist vergleichbar zum Parsen formaler Sprachen, wie z. B. das Parsen eines Quelltextes. Die Parsing-Methoden der formalen Sprachen, z. B. Bottom-up-Parser, können nicht auf das Parsen der natürlichen Sprache übertragen werden, da keine Formalisierung der natürlichen Sprachen existiert [3, 12, 23, 30].
In den ersten Programmen, die natürliche Sprache verarbeiten [32, 41], wurde versucht die natürliche Sprache mit festen Regelmengen zu verarbeiten. Dieser Ansatz stieß jedoch schnell an seine Grenzen, da die Regelmenge nicht vollständig sowie nicht minimal ist und wegen der benötigten Menge an Regeln schwer zu verwalten ist. Die Korpuslinguistik [22] bot die Möglichkeit, die Regelmenge durch Supervised-Machine-Learning-Verfahren [2] abzulösen.
Teil der Korpuslinguistik ist es, große Textkorpora zu erstellen und diese mit sprachlichen Strukturen zu annotieren. Zu diesen Strukturen gehören sowohl die Wortarten als auch die Ableitungsbäume der Sätze. Vorteil dieser Methodik ist es, dass repräsentative Daten zur Verfügung stehen. Diese Daten werden genutzt, um mit Supervised-Machine-Learning-Verfahren die Gesetzmäßigkeiten der natürliche Sprachen zu erlernen.
Das Maximum-Entropie-Verfahren ist ein Supervised-Machine-Learning-Verfahren, das genutzt wird, um natürliche Sprache zu erlernen. Ratnaparkhi [25] nutzt Maximum-Entropie, um Ableitungsbäume für Sätze der natürlichen Sprache zu erlernen. Dieses Verfahren macht es möglich, die natürliche Sprache (abgebildet als Σ∗) trotz einer fehlenden formalen Grammatik zu parsen.
Hintergrund
Die Anwendung und das Verständnis von Statistik sind sehr wichtig für die biomedizinische Forschung und für die klinische Praxis. Dies gilt insbesondere auch zur Abschätzung der Möglichkeiten unterschiedlichster Diagnostik- und Therapieoptionen beim Glaukom. Die scheinbare Komplexität der Statistik, die zum Teil dem „gesunden Menschenverstand“ zu widersprechen scheint, zusammen mit der nur vorsichtigen Akzeptanz der Statistik bei vielen Medizinern können zu bewussten und unbewussten Manipulationen bei der Datendarstellung und -interpretation führen.
Ziel der Arbeit
Ziel ist die verständliche Darstellung einiger typischer Fehler in der medizinisch-statistischen Datenbehandlung.
Material und Methoden
Anhand hypothetischer Beispiele aus der Glaukomdiagnostik erfolgen die Darstellung der Wirkung eines hypotensiven Medikamentes sowie die Beurteilung der Ergebnisse eines diagnostischen Tests. Es werden die typischsten statistischen Einsatzbereiche und Irrtumsquellen ausführlich und verständlich analysiert
Ergebnisse
Mechanismen von Datenmanipulation und falscher Dateninterpretation werden aufgeklärt. Typische Irrtumsquellen bei der statistischen Auswertung und Datendarstellung werden dabei erläutert.
Schlussfolgerungen
Die erläuterten praktischen Beispiele zeigen die Notwendigkeit, die Grundlagen der Statistik zu verstehen und korrekt anwenden zu können. Fehlendes Grundlagenwissen und Halbwissen der medizinischen Statistik können zu folgenschweren Missverständnissen und falschen Entscheidungen in der medizinischen Forschung, aber auch in der klinischen Praxis führen.
Das Forschungsvorhaben Optiox beschäftigt sich mit der Optimierung eines Belüftungsbeckens zur Rauchgasentschwefelung fossil befeuerter Kraftwerke mittels Seewasser. Unter Neutralisierung der entstehenden Hydroniumionen (H3O+) durch die natürliche Alkalität des Seewassers dissoziiert Schwefeldioxid aus dem Rauchgase im vorgeschalteten Absorber beim Phasenübergang von der Gas- in die Flüssigphase zu Sulfiten. Im Belüftungsbecken werden diese Sulfite mittels eingeblasener Luft zu Sulfaten oxidiert, was zu einer geringen Erhöhung der Sulfatfracht vor Einleitung ins Meer führt, die unterhalb der natürlichen Schwankungen liegt. Daneben dient das Belüftungsbecken der Konditionierung des Seewassers hinsichtlich pH-Wert und Sauerstoffgehalt und ist mit hoch effizienten Belüftern ausgestattet, deren Spezifikation den jeweiligen Randbedingungen, wie Abscheideleistung des Absorbers, Beckengeometrie sowie lokalen Gegebenheiten angepasst wird.
Low-end-Embedded-Plattformen stellen eine hohe Anforderung an die Entscheidungsfähigkeit des Entwicklers: Zum nächstgrößeren Prozessor greifen und ein Betriebssystem benutzen oder doch besser auf das Betriebssystem verzichten? Die Frage lässt sich einfach beantworten: Einen Nanokernel verwenden und das Embedded-System mit einem minimalen Footprint realisieren. Adam Dunkels Protothreads sind eine ausgesprochen effiziente Art, Mikrocontroller gut strukturiert zu programmieren und gleichzeitig auf Overhead zu verzichten. So können auch mit kleinen 8-bit-Prozessoren anspruchsvolle Aufgaben in einem Thread-Modell bearbeitet werden. Man muss also nicht immer das Rad neu erfinden oder gleich auf Linux-basierte Systeme zurückgreifen.
Mit steigenden Dämmstandards und höheren Komfortanforderungen der Nutzer gerät die Problematik der sommerlichen Überhitzung zunehmend in den Fokus. Um die Überhitzung möglichst gering zu halten, sind Maßnahmen und Lösungen zu entwickeln, die den potenziellen Kühlbedarf eines Gebäudes vermeiden sowie reduzieren. Im Rahmen des europäischen Forschungsprojektes BATIMASS wurden Techniken untersucht, die die sommerliche Raumtemperatur ohne zusätzliche Kühlung (passiv) oder aber mit energieeffizienter wasserbasierter Flächenkühlung (aktiv) reduzieren und die besonders für Gebäude in Stahl(leicht)bauweise geeignet sind. Dafür wurde die Methodik der thermisch äquivalenten Decke weiterentwickelt, um das thermische Verhalten von Profilblechdecken in Gebäuden für beide Lösungsansätze analysieren zu können. Darüber hinaus wurde der Einsatz von Phasenwechselmaterial (PCM) zur Steigerung der Speicherfähigkeit von leichten Decken mit besonders geringer thermischer Masse in Simulationen sowie im Labor untersucht und bewertet.
Das IoT ist ohne eingebettete Systeme undenkbar. Erst kleine und kleinste Mikrocontroller mit intelligenten Kommunikationsschnittstellen und Anbindung ans Internet ermöglichen sinnvolles und flächendeckendes Einsammeln von Daten. Doch wie kompliziert ist der Einstieg in die Embedded-Welt? Dieser Artikel gibt Einblick, wie die »Arduino-Plattform« die Einstiegshürden für eingebettete Systeme dramatisch reduzieren kann.