Refine
Year of publication
- 2016 (119) (remove)
Institute
- Fachbereich Wirtschaftswissenschaften (28)
- Fachbereich Bauingenieurwesen (22)
- Fachbereich Chemie und Biotechnologie (15)
- Fachbereich Maschinenbau und Mechatronik (13)
- Fachbereich Medizintechnik und Technomathematik (11)
- Fachbereich Elektrotechnik und Informationstechnik (9)
- Fachbereich Energietechnik (7)
- Fachbereich Luft- und Raumfahrttechnik (6)
- IfB - Institut für Bioengineering (6)
- Solar-Institut Jülich (4)
Language
- German (119) (remove)
Document Type
- Article (38)
- Book (21)
- Part of a Book (20)
- Conference Proceeding (15)
- Other (10)
- Conference: Meeting Abstract (5)
- Report (4)
- Doctoral Thesis (2)
- Part of a Periodical (2)
- Patent (1)
Keywords
- Brandfall (1)
- Designpraxis (1)
- EN 1993-1-2 (1)
- Effizienz (1)
- Einbetten in das Internet der Dinge (1)
- Forschung, pränormativ (1)
- Hypothesentests (1)
- Minimal-Ansatz für Embedded-Systeme (1)
- Referenzmodellierung (1)
- TM Forum (1)
Is part of the Bibliography
- no (119)
In diesem Beitrag geht es um die Integration von Stoffströmen einer Lignocellulose-Bioraffinerie in Verfahren zur Batterieherstellung. Pflanzliche Reststoffe aus der Biokraftstoffherstellung wie Lignin sollen zur Herstellung neuer Batteriematerialien verwendet werden. Hierbei wird das Lignin als Matrix für die vorgraphitischen C-haltigen Einlagerungsverbindungen in den Elektroden genutzt. Die Si-C-Komposite werden durch das Einbetten von Si in eine Ligninmatrix mit anschließender Carbonisierung hergestellt. Das Lignin hierfür wird durch die sequentielle hydrothermale Vorbehandlung von Buchenholz bei variablen Bedingungen gewonnen und mit Si-Nanopartikel sowie als Referenz ohne Si-Nanopartikel gefällt. Die Ergebnisse zeigen, dass die sequenzielle Vorbehandlung höhere Ausbeuten im Vergleich zum LHW- oder Organosolv-Aufschluss liefert. Um eine Anode herzustellen, wurde das resultierende Si–C-Kompositmaterial carbonisiert, auf einen Stromsammler aufgetragen und elektro-chemisch charakterisiert. Der Einfluss der Vorbehandlungsschritte auf den Herstellungsprozess und die ökonomische Bewertung des untersuchten Bioraffinerie-Prozesses wurde mithilfe eines Stoffstrommodells analysiert.
IoT von der Stange
(2016)
Das IoT ist ohne eingebettete Systeme undenkbar. Erst kleine und kleinste Mikrocontroller mit intelligenten Kommunikationsschnittstellen und Anbindung ans Internet ermöglichen sinnvolles und flächendeckendes Einsammeln von Daten. Doch wie kompliziert ist der Einstieg in die Embedded-Welt? Dieser Artikel gibt Einblick, wie die »Arduino-Plattform« die Einstiegshürden für eingebettete Systeme dramatisch reduzieren kann.
Low-end-Embedded-Plattformen stellen eine hohe Anforderung an die Entscheidungsfähigkeit des Entwicklers: Zum nächstgrößeren Prozessor greifen und ein Betriebssystem benutzen oder doch besser auf das Betriebssystem verzichten? Die Frage lässt sich einfach beantworten: Einen Nanokernel verwenden und das Embedded-System mit einem minimalen Footprint realisieren. Adam Dunkels Protothreads sind eine ausgesprochen effiziente Art, Mikrocontroller gut strukturiert zu programmieren und gleichzeitig auf Overhead zu verzichten. So können auch mit kleinen 8-bit-Prozessoren anspruchsvolle Aufgaben in einem Thread-Modell bearbeitet werden. Man muss also nicht immer das Rad neu erfinden oder gleich auf Linux-basierte Systeme zurückgreifen.
Vermessung
(2016)
Verfügbarkeit und Nachhaltigkeit sind wichtige Anforderungen bei der Planung langlebiger technischer Systeme. Meist werden bei Lebensdaueroptimierungen lediglich einzelne Komponenten vordefinierter Systeme untersucht. Ob eine optimale Lebensdauer eine gänzlich andere Systemvariante bedingt, wird nur selten hinterfragt. Technical Operations Research (TOR) erlaubt es, aus Obermengen technischer Systeme automatisiert die lebensdaueroptimale Systemstruktur auszuwählen. Der Artikel zeigt dies am Beispiel eines hydrostatischen Getriebes.
Boden, Baugrube, Verbau
(2016)
Die Lösung den Baugrund betreffender Fragestellungen beginnen i. d. R. mit der Durchführung von Baugrunderkundungen, um alle notwendigen Parameter zu erhalten, die für die Planung und Durchführung von Bauvorhaben notwendig sind. Im Folgenden werden die wichtigsten Erkundungen in Abhängigkeit der erforderlichen Güteklasse der Proben beschrieben und vorgestellt.
Leitung und Konzeption: Thomas Tünnemann, Professor für Gestalten, FB Architektur, FH Aachen:
Mit Beiträgen von
Miriam Azzab, Larissa Rohr, Janna Steinhart, Felix Reymann, Kevin Osterkamp, Mark Kieckhefer, Pia Bienert, Sarah Schuhmann, Hermann Stuzmann, Silvana Hecklinger, Thorsten, Köllen, Jesse Dilworth, Silke Wanders, Tomas Tünnemann und Jan Waschinzki
Genussrechte als Instrument der Unternehmensfinanzierung von kommunalen Wohnungs- baugesellschaften
(2016)
Die kommunalen Wohnungsbaugesellschaften und ihr Geschäftszweck bzw. Versorgungsauftrag erfahren aus gesamtgesellschaftlichen Gründen aktuell einen erheblichen Bedeutungszuwachs. Der kommunale Wohnungsbau soll und muss intensiviert werden, da z.B. zunehmend Wohnungsbindungen auslaufen. Bezahlbare Neubauten fehlen speziell Familien, Senioren, Studenten und Flüchtlingen. Um das Investitionsvolumen zu bewältigen, bedarf es nicht nur der Förderkredite, sondern auch der Zuführung „frischen Kapitals“. Der Beitrag stellt dar, dass Genussrechte ein interessantes und oft unbekanntes Finanzierungsinstrument für kommunale Wohnungsbaugesellschaften mit passgenauen Ausgestaltungsmöglichkeiten sind. Mit Hilfe von Genussrechten können die notwendigen Neubau-Investitionen solide mit Quasi-Eigenkapital unterlegt werden und den sozialen Wohnungsbau wiederbeleben. Genussrechte als Hybridkapital lassen sich mangels gesetzlicher Eingrenzung exakt und individuell ebenso an die Bedürfnisse der kommunalen Wohnungsbaugesellschaft anpassen wie an die der Gesellschafter und des jeweiligen Neubauvorhabens.
Kalkulation
(2016)
Das Kapitel behandelt die Kosten- und Preisermittlung, die Kostenvorgabe und Kostenkontrolle.
Der Angebotspreis wird aufgeschlüsselt in die Einzelkosten der Teilleistungen, die Baustellengemeinkosten, die Allgemeinen Geschäftskosten und einen Zuschlag für Wagnis und Gewinn. Auf der Basis der Angebotskalkulation werden die Vorgaben für die Kostenkontrolle entwickelt.
When exploring glacier ice it is often necessary to take samples or implement sensors at a certain depth underneath the glacier surface. One way of doing this is by using heated melting probes. In their common form these devices experience a straight one-dimensional downwards motion and can be modeled by standard close-contact melting theory. A recently developed melting probe however, the IceMole, achieves maneuverability by simultaneously applying a surface temperature gradient to induce a change in melting direction and controlling the effective contact-force by means of an ice screw to stabilize its change in attitude. A modeling framework for forced curvilinear melting does not exist so far and will be the content of this paper. At first, we will extend the existing theory for quasi-stationary close-contact melting to curved trajectories. We do this by introducing a rotational mode. This additional unknown in the system implies yet the need for another model closure. Within this new framework we will focus on the effect of a variable contact-force as well as different surface temperature profiles. In order to solve for melting velocity and curvature of the melting path we present both an inverse solution strategy for the analytical model, and a more general finite element framework implemented into the open source software package ELMER. Model results are discussed and compared to experimental data conducted in laboratory tests.
Für die Verarbeitung von natürlicher Sprache ist ein wichtiger Zwischenschritt das Parsing, bei dem für Sätze der natürlichen Sprache Ableitungsbäume bestimmt werden. Dieses Verfahren ist vergleichbar zum Parsen formaler Sprachen, wie z. B. das Parsen eines Quelltextes. Die Parsing-Methoden der formalen Sprachen, z. B. Bottom-up-Parser, können nicht auf das Parsen der natürlichen Sprache übertragen werden, da keine Formalisierung der natürlichen Sprachen existiert [3, 12, 23, 30].
In den ersten Programmen, die natürliche Sprache verarbeiten [32, 41], wurde versucht die natürliche Sprache mit festen Regelmengen zu verarbeiten. Dieser Ansatz stieß jedoch schnell an seine Grenzen, da die Regelmenge nicht vollständig sowie nicht minimal ist und wegen der benötigten Menge an Regeln schwer zu verwalten ist. Die Korpuslinguistik [22] bot die Möglichkeit, die Regelmenge durch Supervised-Machine-Learning-Verfahren [2] abzulösen.
Teil der Korpuslinguistik ist es, große Textkorpora zu erstellen und diese mit sprachlichen Strukturen zu annotieren. Zu diesen Strukturen gehören sowohl die Wortarten als auch die Ableitungsbäume der Sätze. Vorteil dieser Methodik ist es, dass repräsentative Daten zur Verfügung stehen. Diese Daten werden genutzt, um mit Supervised-Machine-Learning-Verfahren die Gesetzmäßigkeiten der natürliche Sprachen zu erlernen.
Das Maximum-Entropie-Verfahren ist ein Supervised-Machine-Learning-Verfahren, das genutzt wird, um natürliche Sprache zu erlernen. Ratnaparkhi [25] nutzt Maximum-Entropie, um Ableitungsbäume für Sätze der natürlichen Sprache zu erlernen. Dieses Verfahren macht es möglich, die natürliche Sprache (abgebildet als Σ∗) trotz einer fehlenden formalen Grammatik zu parsen.