Refine
Year of publication
- 2016 (284) (remove)
Institute
- Fachbereich Medizintechnik und Technomathematik (54)
- Fachbereich Chemie und Biotechnologie (44)
- Fachbereich Bauingenieurwesen (35)
- Fachbereich Elektrotechnik und Informationstechnik (35)
- IfB - Institut für Bioengineering (35)
- Fachbereich Wirtschaftswissenschaften (31)
- Fachbereich Luft- und Raumfahrttechnik (28)
- Fachbereich Maschinenbau und Mechatronik (26)
- Fachbereich Energietechnik (17)
- INB - Institut für Nano- und Biotechnologien (15)
Document Type
- Article (118)
- Conference Proceeding (81)
- Part of a Book (29)
- Book (25)
- Other (10)
- Conference: Meeting Abstract (8)
- Report (6)
- Doctoral Thesis (3)
- Part of a Periodical (2)
- Patent (1)
Keywords
- Technical Operations Research (2)
- Additive Manufacturing (1)
- Annulus Fibrosus (1)
- Archeology (1)
- Assessment (1)
- Asymptotic efficiency (1)
- Bacillus atrophaeus (1)
- Balance (1)
- Balanced hypergraph (1)
- Brandfall (1)
Characterization and evaluation of lignocellulosic biomass 130 hydrolysates for ABE fermentation
(2016)
Purpose
The most commonly used mobility assessments for screening risk of falls among older adults are rating scales such as the Tinetti performance oriented mobility assessment (POMA). However, its correlation with falls is not always predictable and disadvantages of the scale include difficulty to assess many of the items on a 3-point scale and poor specificity. The purpose of this study was to describe the ability of the new Aachen Mobility and Balance Index (AMBI) to discriminate between subjects with a fall history and subjects without such events in comparison to the Tinetti POMA Scale.
Methods
For this prospective cohort study, 24 participants in the study group and 10 in the control group were selected from a population of patients in our hospital who had met the stringent inclusion criteria. Both groups completed the Tinetti POMA Scale (gait and balance component) and the AMBI (tandem stance, tandem walk, ten-meter-walk-test, sit-to-stand with five repetitions, 360° turns, timed-up-and-go-test and measurement of the dominant hand grip strength). A history of falls and hospitalization in the past year were evaluated retrospectively. The relationships among the mobility tests were examined with Bland–Altmananalysis. Receiver-operated characteristics curves, sensitivity and specificity were calculated.
Results
The study showed a strong negative correlation between the AMBI (17 points max., highest fall risk) and Tinetti POMA Scale (28 points max., lowest fall risk; r = −0.78, p < 0.001) with an excellent discrimination between community-dwelling older people and a younger control group. However, there were no differences in any of the mobility and balance measurements between participants with and without a fall history with equal characteristics in test comparison (AMBI vs. Tinetti POMA Scale: AUC 0.570 vs. 0.598; p = 0.762). The Tinetti POMA Scale (cut-off <20 points) showed a sensitivity of 0.45 and a specificity of 0.69, the AMBI a sensitivity of 0.64 and a specificity of 0.46 (cut-off >5 points).
Conclusion
The AMBI comprises mobility and balance tasks with increasing difficulty as well as a measurement of the dominant hand-grip strength. Its ability to identify fallers was comparable to the Tinetti POMA Scale. However, both measurement sets showed shortcomings in discrimination between fallers and non-fallers based on a self-reported retrospective falls-status.
For the successful implementation of microfluidic reaction systems, such as PCR and electrophoresis, the movement of small liquid volumes is essential. In conventional lab-on-a-chip-platforms, solvents and samples are passed through defined microfluidic channels with complex flow control installations. The droplet actuation platform presented here is a promising alternative. With it, it is possible to move a liquid drop (microreactor) on a planar surface of a reaction platform (lab-in-a-drop). The actuation of microreactors on the hydrophobic surface of the platform is based on the use of magnetic forces acting on the outer shell of the liquid drops which is made of a thin layer of superhydrophobic magnetite particles. The hydrophobic surface of the platform is needed to avoid any contact between the liquid core and the surface to allow a smooth movement of the microreactor. On the platform, one or more microreactors with volumes of 10 µL can be positioned and moved simultaneously. The platform itself consists of a 3 x 3 matrix of electrical double coils which accommodate either neodymium or iron cores. The magnetic field gradients are automatically controlled. By variation of the magnetic field gradients, the microreactors' magnetic hydrophobic shell can be manipulated automatically to move the microreactor or open the shell reversibly. Reactions of substrates and corresponding enzymes can be initiated by merging the microreactors or bringing them into contact with surface immobilized catalysts.
The performance and biomass yield of the perennial energy plant Sida hermaphrodita (hereafter referred to as Sida) as a feedstock for biogas and solid fuel was evaluated throughout one entire growing period at agricultural field conditions. A Sida plant development code was established to allow comparison of the plant growth stages and biomass composition. Four scenarios were evaluated to determine the use of Sida biomass with regard to plant development and harvest time: (i) one harvest for solid fuel only; (ii) one harvest for biogas production only; (iii) one harvest for biogas production, followed by a harvest of the regrown biomass for solid fuel; and (iv) two consecutive harvests for biogas production. To determine Sida's value as a feedstock for combustion, we assessed the caloric value, the ash quality, and melting point with regard to DIN EN ISO norms. The results showed highest total dry biomass yields of max. 25 t ha⁻¹, whereas the highest dry matter of 70% to 80% was obtained at the end of the growing period. Scenario (i) clearly indicated the highest energy recovery, accounting for 439 288 MJ ha⁻¹; the energy recovery of the four scenarios from highest to lowest followed this order: (i) ≫ (iii) ≫ (iv) > (ii). Analysis of the Sida ashes showed a high melting point of >1500 °C, associated with a net calorific value of 16.5–17.2 MJ kg⁻¹. All prerequisites for DIN EN ISO norms were achieved, indicating Sida's advantage as a solid energy carrier without any post-treatment after harvesting. Cell wall analysis of the stems showed a constant lignin content after sampling week 16 (July), whereas cellulose had already reached a plateau in sampling week 4 (April). The results highlight Sida as a promising woody, perennial plant, providing biomass for flexible and multipurpose energy applications.
Four members of a homologous series of chlorinated poly(vinyl ester) oligomers CCl₃–(CH₂CH (OCO(CH₂)ₘCH₃))ₙ–Cl with degrees of polymerization of 10 and 20 were prepared by telomerisation using carbon tetrachloride. The number of side chain carbon atoms ranges from 2 (poly(vinyl acetate) to 18 (poly(vinyl stearate)). The effect of the n-alkyl side chain length and of the degree of polymerization on the thermal stability and crystallization behaviour of the synthesized compounds was investigated.
All oligomers degrade in two major steps by first losing HCl and side chains with subsequent breakdown of the backbone. The members with short side chains, up to poly(vinyl octanoate), are amorphous and show internal plasticization, whereas those with high number of side chain carbon atoms are semi-crystalline due to side-chain crystallization. A better packing for poly(vinyl stearate) is also noticeable. The glass transition and melting temperatures as well as the onset temperature of decomposition are influenced to a larger extent by the side chain length than by the degree of polymerization. Thermal stability is improved if both the size and number of side chains increase, but only a long side chain causes a significant increase of the resistance to degradation. This results in a stabilization of PVAc so that oligomers from poly(vinyl octanoate) on are stable under atmospheric conditions. Thus, the way to design stable, chlorinated PVEs oligomers is to use a long n-alkyl side chain.
Hintergrund
Die Anwendung und das Verständnis von Statistik sind sehr wichtig für die biomedizinische Forschung und für die klinische Praxis. Dies gilt insbesondere auch zur Abschätzung der Möglichkeiten unterschiedlichster Diagnostik- und Therapieoptionen beim Glaukom. Die scheinbare Komplexität der Statistik, die zum Teil dem „gesunden Menschenverstand“ zu widersprechen scheint, zusammen mit der nur vorsichtigen Akzeptanz der Statistik bei vielen Medizinern können zu bewussten und unbewussten Manipulationen bei der Datendarstellung und -interpretation führen.
Ziel der Arbeit
Ziel ist die verständliche Darstellung einiger typischer Fehler in der medizinisch-statistischen Datenbehandlung.
Material und Methoden
Anhand hypothetischer Beispiele aus der Glaukomdiagnostik erfolgen die Darstellung der Wirkung eines hypotensiven Medikamentes sowie die Beurteilung der Ergebnisse eines diagnostischen Tests. Es werden die typischsten statistischen Einsatzbereiche und Irrtumsquellen ausführlich und verständlich analysiert
Ergebnisse
Mechanismen von Datenmanipulation und falscher Dateninterpretation werden aufgeklärt. Typische Irrtumsquellen bei der statistischen Auswertung und Datendarstellung werden dabei erläutert.
Schlussfolgerungen
Die erläuterten praktischen Beispiele zeigen die Notwendigkeit, die Grundlagen der Statistik zu verstehen und korrekt anwenden zu können. Fehlendes Grundlagenwissen und Halbwissen der medizinischen Statistik können zu folgenschweren Missverständnissen und falschen Entscheidungen in der medizinischen Forschung, aber auch in der klinischen Praxis führen.
The aim of this work was to perform a detailed investigation of the use of Selective Laser Melting (SLM) technology to process eutectic silver-copper alloy Ag 28 wt. % Cu (also called AgCu28). The processing occurred with a Realizer SLM 50 desktop machine. The powder analysis (SEM-topography, EDX, particle distribution) was reported as well as the absorption rates for the near-infrared (NIR) spectrum. Microscope imaging showed the surface topography of the manufactured parts. Furthermore, microsections were conducted for the analysis of porosity. The Design of Experiments approach used the response surface method in order to model the statistical relationship between laser power, spot distance and pulse time.
Regardless of size or destination, synthetic biology starts with com-parably small information units, which need to be combined and properly arranged in order to achieve a certain goal. This may be the de novo synthesis of individual genes from oligonucleotides, a shuffling of protein domains in order to create novel biocatalysts, the assembly of multiple enzyme encoding genes in metabolic pathway design, or strain development at the production stage. The CoLibry concept has been designed in order to close the gap between recombinant production of individual genes and genome editing.
To give the exchange of goods and services between the European Union (EU) and the United States (U.S.) new momentum the two parties are currently negotiating the transatlantic free trade agreement Transatlantic Trade and Investment Partnership (TTIP). The aim is to create the largest free trade area in the world. The agreement, once entered into force, will oblige EU countries and the U.S. to further liberalize their markets.
The negotiations on TTIP include a chapter on Electronic Communications/ Telecommunications. The challenge therein will be securing commitments for market access to Electronic Communications services. At the same time, these commitments must reflect the legitimate need for consumer protection issues. The need to reduce Electronic Communications-related non-tariff barriers to trade between the Parties is due to the fact that these markets are heavily regulated. Without transnational rules as to regulations national governments can abuse these regulations to deter the market entry by new (foreign) suppliers. Thus the free trade agreement TTIP affects in many respects regulatory provisions on and access to Electronic Communications markets. The objective of this paper is therefore to examine to what extend the regulatory principles for Electronic Communications markets envisaged under TTIP will result in trade facilitation and regulatory convergence between the EU and the U.S.
As to this question the result of the analysis is that the chapter on Electronic Communications will be an important step towards facilitating trade in Electronic Communications services. At the same time some regulatory convergence will take place, but this convergence will not lead to a (full) harmonization of regulations. Rather the norm, also after TTIP negotiations will have been concluded successfully, will be mutual recognition of different regulatory regimes. Different regulations being the optimal policy response in different market settings will continue to exist. Moreover, it is very unlikely that such regulatory principles for the Electronic Communications sector are a vehicle for a race to the bottom in levels of consumer protection.
In Anbetracht weltweit zunehmend strengerer klimapolitischer
Ziele steigt auch der Druck für Nutzfahrzeughersteller, effizientere und umweltfreundlichere
Technologien zu entwickeln. Den Blick bei der Bewertung dieser
ausschließlich auf die Fahrzeugnutzung zu richten, ist längst nicht mehr zufriedenstellend.
Im Rahmen dieser Analyse wird ein gegenwärtig auf dem Markt erwerblicher
und in deutschen Städten bereits seit Jahren betriebener Hybridbus
energetisch und ökologisch mit einem konventionell angetriebenen, nahezu baugleichen
Modell entlang des Lebensweges bewertet.
Nach Definition von Ziel und Untersuchungsrahmen wird ein Überblick auf bereits
durchgeführte Lebenszyklusanalysen zu Hybridbussen im Stadtverkehr gegeben
und Schlussfolgerungen für die anschließende Analyse abgeleitet. Diese
wird im Rahmen einer energetischen und ökologischen Bewertung beider Produktsysteme
anhand der Parameter "Primärenergieeinsatz" und "CO2äq Emissionen"
praktiziert. Der Fahrzeugrumpf beider Fahrzeuge des gleichen Modells
wird dabei als einheitlich angenommen, sodass bei dem Vergleich der Herstellung
vereinfacht nur die sich unterscheidenden Komponenten des Antriebstranges
berücksichtigt werden. Die Resultate der Wirkungsabschätzung werden als
Differenz des Hybridbusses gegenüber dem Referenzfahrzeug über die einzelnen
Lebenszyklusphasen dargestellt. Schließlich werden Prognosen getroffen, ab
welcher Strecke die bei der Herstellung erzeugten höheren CO2äq Emissionen
des Hybridantriebstranges gegenüber dem Referenzmodell ausgeglichen werden.
Für das Auftreten extremer Wetterereignisse werden für Kernkraftwerke Eintrittshäufigkeiten für nicht mehr beherrschbare Zustände von unter 10⁻⁴/a gefordert. Dies gilt auch für die Einwirkung von Blitzeinschlägen. Die bisherige Nachweisführung zu Blitz- und Überspannungsschutz eines KKW in Deutschland ist deterministisch. In diesem Bericht werden das Vorgehen für einen entsprechenden Nachweis für leittechnische Einrichtungen der Sicherheitstechnik von KKW, der zur geforderten Zielgröße der Eintrittshäufigkeit führt. Die Ergebnisse werden zusammenfassend bewertet.
The light-addressable potentiometric sensor (LAPS) has the unique feature to address different regions of a sensor surface without the need of complex structures. Measurements at different locations on the sensor surface can be performed in a common analyte solution, which distinctly simplifies the fluidic set-up. However, the measurement in a single analyte chamber prevents the application of different drugs or different concentrations of a drug to each measurement spot at the same time as in the case of multi-reservoir-based set-ups. In this work, the authors designed a LAPS-based set-up for cell culture screening that utilises magnetic beads loaded with the endotoxin (lipopolysaccharides, LPS), to generate a spatially distributed gradient of analyte concentration. Different external magnetic fields can be adjusted to move the magnetic beads loaded with a specific drug within the measurement cell. By recording the metabolic activities of a cell layer cultured on top of the LAPS surface, this work shows the possibility to apply different concentrations of a sample along the LAPS measurement spots within a common analyte solution.
Autoradiography is a well-established method of nuclear imaging. When different radionuclides are present simultaneously, additional processing is needed to distinguish distributions of radionuclides. In this work, a method is presented where aluminium absorbers of different thickness are used to produce images with different cut-off energies. By subtracting images pixel-by-pixel one can generate images representing certain ranges of β-particle energies. The method is applied to the measurement of irradiated reactor graphite samples containing several radionuclides to determine the spatial distribution of these radionuclides within pre-defined energy windows. The process was repeated under fixed parameters after thermal treatment of the samples. The greyscale images of the distribution after treatment were subtracted from the corresponding pre-treatment images. Significant changes in the intensity and distribution of radionuclides could be observed in some samples. Due to the thermal treatment parameters the most significant differences were observed in the ³H and ¹⁴C inventory and distribution.
Kosten- und Verfahrensvergleiche können dabei zur Ermittlung des für die Aufgabe geeignetsten Bauverfahren führen. Für die sich daran anschließende Ablaufplanung werden die verschiedenen graphischen sowie rechnerischen Instrumente (Terminliste und Taktplan, Balkenplan, Weg-Zeit-Diagramm und Netzplan) erläutert und anhand von Beispielen vertieft. Schließlich wird ein im Rahmen der Arbeits- und Nachkalkulation vorzunehmender Soll-Ist-Vergleich mit Hilfe des Bauarbeitsschlüssels (BAS) zur Überprüfung der Aufwands- und Leistungswerte dargestellt.
Boden, Baugrube, Verbau
(2016)
Die Lösung den Baugrund betreffender Fragestellungen beginnen i. d. R. mit der Durchführung von Baugrunderkundungen, um alle notwendigen Parameter zu erhalten, die für die Planung und Durchführung von Bauvorhaben notwendig sind. Im Folgenden werden die wichtigsten Erkundungen in Abhängigkeit der erforderlichen Güteklasse der Proben beschrieben und vorgestellt.
Neben dem durch Unfälle und Krankheiten entstehenden menschlichen Leids und der daraus resultierenden moralischen Verpflichtung, sich und seine Mitmenschen vor Schaden zu bewahren, ist der Arbeits- und Gesundheitsschutz auch ein Gebot wirtschaftlichen Handelns, da Arbeitsunfälle und Berufskrankheiten Ausfallzeiten und Kosten verursachen. So gehören Arbeits- und Gesundheitsschutz zu den wichtigen Aufgaben eines Unternehmens.
Light-addressable potentiometric sensor as a sensing element in plug-based microfluidic devices
(2016)
A plug-based microfluidic system based on the principle of the light-addressable potentiometric sensor (LAPS) is proposed. The LAPS is a semiconductor-based chemical sensor, which has a free addressability of the measurement point on the sensing surface. By combining a microfluidic device and LAPS, ion sensing can be performed anywhere inside the microfluidic channel. In this study, the sample solution to be measured was introduced into the channel in a form of a plug with a volume in the range of microliters. Taking advantage of the light-addressability, the position of the plug could be monitored and pneumatically controlled. With the developed system, the pH value of a plug with a volume down to 400 nL could be measured. As an example of plug-based operation, two plugs were merged in the channel, and the pH change was detected by differential measurement.
Vermessung
(2016)
Bauwirtschaft und Baurecht
(2016)
Die Leistungen der Bauwirtschaft und deren wirtschaftliche Bedeutung in Deutschland werden anhand einer Vielzahl statistischer Daten verdeutlicht. Die im Vergleich zu anderen Wirtschaftsbereichen auftretenden branchenspezifischen Besonderheiten der Bauwirtschaft werden anhand von verschiedenen Kriterien herausgearbeitet. Das Zusammenspiel der einzelnen Akteure des Sektors und die dabei sich ergebenden bzw. zu beachtenden Rechts- und Vertragsgrundlagen werden dargestellt. Aufgrund der meist erheblichen Höhe des eingesetzten Kapitals aufseiten der Auftraggeber, aber auch seitens der Bauunternehmen während der Bauausführung sowie der besonderen Verantwortung der Beratenden Ingenieure werden auch notwendige Formen der Risikoabsicherungen und der in der Branche üblichen und teilweise vorgeschriebenen Versicherungsmöglichkeiten angesprochen. Intensive Beachtung finden auch die Auswirkungen des Öffentlichen Baurechts (Baugesetzbuch, Bauordnung NRW, Baunutzungsverordnung) auf Planung, Bau und Betrieb baulicher Anlagen und der dabei verwendeten Bauprodukte.
Baukosten und Finanzierung
(2016)
Das Gesetz gegen Wettbewerbsbeschränkungen bildet die Grundlage für die Verordnung über die Vergabe öffentlicher Aufträge, aus der sich die Vergabe- und Vertragsordnungen für Freiberufliche Leistungen (VOF), für Lieferungen und Leistungen (VOL) und für Bauleistungen (VOB) ableiten. Die dabei in Frage kommenden Vergabeverfahren und die einzelnen Schwellenwerte gemäß EU-Recht werden detailliert aufbereitet und im Zusammenhang dargestellt.
Die für die Ausgestaltung von Bauverträgen notwendigen Grundlagen des Werkvertragsrecht nach BGB sowie die branchenspezifischen Allgemeinen Geschäftsbedingungen in Form der Vertragsordnung für Bauleistungen (VOB) mit ihren Zusätzlichen und Besonderen Vertragsbedingungen werden intensiv aufbereitet. Das Zustandekommen eines Bauvertrages ergibt sich dann aus der notwendigen Leistungsbeschreibung mit einem Leistungsverzeichnis und verschiedenen Positionen oder in Form einer Funktionalen Leistungsbeschreibung (Beschreibung mit Leistungsprogramm).
Das Auslandsgeschäft der Baubranche (Bauausführende Unternehmen sowie Beratende Ingenieure und Consultants) wird von den jeweils vorliegenden Internationalen Wettbewerbsbedingungen bestimmt, deren Zusammenhänge anhand umfangreicher statistischer Daten und anhand von Beispielen dargestellt werden.
Mit der vorliegenden, parallel entsprechend in 10 weiteren Verfahren ergangenen Entscheidung behandelte der BGH zum wiederholten Male das Geschäftsmodell der Accessio Wertpapierhandelshaus AG („A AG“, früher: Wertpapierhandelshaus Driver & Bengsch AG). Die klagenden Anleger, zunächst nur akquiriert durch ein Tagesgeldkonto mit besonders attraktiven Zinsen, schlossen im Weiteren mit dieser einen Vermögensverwaltungsvertrag ab. Zur Abwicklung der Wertpapiergeschäfte eröffneten sie über die A AG zugleich ein Depotkonto bei der beklagten Discount-Brokerin. Für dieses erhielt die A AG eine Transaktionsvollmacht. Die Discount-Brokerin schuldete nach den Vertragsdokumenten über die gesetzlichen Aufklärungs- und Erkundigungspflichten bei Auftragsausführung hinaus keine Anlageberatung („execution-only-business“). Durch nach ihrer Behauptung fehlerhafte Anlageberatung der A AG erlitten die Anleger einen Schaden. In dem Rechtsstreit verlangten sie dessen Ersatz von der Discount-Brokerin, da die A AG zwischenzeitlich insolvent wurde.
Mice that have been genetically humanized for proteins involved in drug metabolism and toxicity and mice engrafted with human hepatocytes are emerging and promising in vivo models for an improved prediction of the pharmacokinetic, drug–drug interaction and safety characteristics of compounds in humans. The specific advantages and disadvantages of these models should be carefully considered when using them for studies in drug discovery and development. Here, an overview on the corresponding genetically humanized and chimeric liver humanized mouse models described to date is provided and illustrated with examples of their utility in drug metabolism and toxicity studies. We compare the strength and weaknesses of the two different approaches, give guidance for the selection of the appropriate model for various applications and discuss future trends and perspectives.
IoT von der Stange
(2016)
Schienenverkehrssysteme stehen in zunehmendem Wettbewerb, sowohl untereinander als auch mit anderen Verkehrsträgern. Als wichtiger Aspekt zur Steigerung der Kosteneffizienz wird die Digitalisierung des Betriebs und der Fahrzeuge betrachtet. Über eine Prognose der Ausfallwahrscheinlichkeit bzw. Restlebensdauer von Subsystemen können mittels Digitalisierung die Instandhaltungskosten gesenkt werden. Die geringen Fehlerraten im System Bahn machen die Nutzung besonderer Simulationstechniken notwendig. In diesem Beitrag wird gezeigt, wie sich die Subsystemverfügbarkeit aus den beobachteten Fehlerraten der Teilfunktionen vorhersagen lässt.
This work presents a methodology for automated
damage-sensitive feature extraction and anomaly
detection under multivariate operational variability
for in-flight assessment of wings. The
method uses a passive excitation approach, i. e.
without the need for artificial actuation. The
modal system properties (natural frequencies and
damping ratios) are used as damage-sensitive
features. Special emphasis is placed on the use
of Fiber Bragg Grating (FBG) sensing technology
and the consideration of Operational and
Environmental Variability (OEV). Measurements
from a wind tunnel investigation with a composite
cantilever equipped with FBG and piezoelectric
sensors are used to successfully detect an impact
damage. In addition, the feasibility of damage
localisation and severity estimation is evaluated
based on the coupling found between damageand
OEV-induced feature changes.
Der Beitrag fokussiert die Frage nach dem Stand des durch die Bologna-Reform angestoßenen Kulturwandels im Hinblick auf Kompetenzorientierung am Beispiel der Technischen Universität Hamburg (TUHH). An der TUHH wird bereits seit einigen Jahren daran gearbeitet, die Lehre grundlegend neu auszurichten. Hierfür setzt das hochschuldidaktische "Zentrum für Lehre und Lernen" (ZLL) verschiedene Maßnahmen ein, wie z.B. eine finanzielle und didaktische Unterstützung von Lehrenden bei der Umstellung ihrer Veranstaltungen, Weiterqualifizierungsangebote und Informationsmaterial. Die Maßnahmen ebenso wie die innovierten Veranstaltungen werden von Lehrenden und Studierenden gut evaluiert. Nach dem Ansatz des Constructive Alignments lässt sich jedoch davon ausgehen, dass der Bereich der Prüfungen für eine Einschätzung des Status Quo der Kompetenzorientierung besonders relevant ist. Dieser wird deshalb anhand der beiden Kriterien Prüfungsformate und Schwierigkeitsstufen von Prüfungsaufgaben näher beleuchtet, die eng mit der Kompetenzorientierung zusammen hängen. Ergebnisse hierzu aus einer universitätsweiten Datenbank zur Studienorganisation sowie aus einer Online-Umfrage unter Studierenden weisen darauf hin, dass das Prüfungsformat "Klausur" nach wie vor am stärksten verbreitet ist; zugleich sind die Studierenden nach einer Selbsteinschätzung in Prüfungen vorrangig mit Aufgaben auf den Taxonomieniveaus "Wiedergeben" und "Anwenden" konfrontiert. Dies lässt sich als Hinweis darauf interpretieren, dass es im Hinblick auf eine Kompetenzorientierung in den Prüfungen noch weiteren Veränderungsbedarf gibt.
The potential of SMART climbing robot combined with a weatherproof cabin for rotor blade maintenance
(2016)
[⁶⁸Ga(DOTATATE)] has demonstrated its clinical usefulness. Both Fe³⁺ and Cu²⁺, potential contaminants in Gallium-68 generator eluent, substantially reduce the radiochemical (RC) yield of [⁶⁸Ga(DOTATATE)] if the metal/ligand ratio of 1:1 is exceeded. A variety of compounds were examined for their potential ability to reduce this effect. Most had no effect on RC yield. However, addition of phosphate diminished the influence of Fe³⁺ by likely forming an insoluble iron salt. Addition of ascorbic acid reduced Cu²⁺ and Fe³⁺ to Cu⁺ and Fe²⁺ respectively, both of which have limited impact on RC yields. At low ligand amounts (5 nmol DOTATATE), the addition of 30 nmol phosphate (0.19 mM) increased the tolerance of Fe3⁺ from 4 nmol to 10 nmol (0.06 mM), while the addition of ascorbic acid allowed high RC yields (>95%) in the presence of 40 nmol Fe³⁺ (0.25 mM) and 100 nmol Cu²⁺ (0.63 mM). The effect of ascorbic acid was highly pH-dependant, and gave optimal results at pH 3.
The Monte Carlo code FLUKA is used to simulate the production of a number of positron emitting radionuclides, ¹⁸F, ¹³N, ⁹⁴Tc, ⁴⁴Sc, ⁶⁸Ga, ⁸⁶Y, ⁸⁹Zr, ⁵²Mn, ⁶¹Cu and ⁵⁵Co, on a small medical cyclotron with a proton beam energy of 13 MeV. Experimental data collected at the TR13 cyclotron at TRIUMF agree within a factor of 0.6 ± 0.4 with the directly simulated data, except for the production of ⁵⁵Co, where the simulation underestimates the experiment by a factor of 3.4 ± 0.4. The experimental data also agree within a factor of 0.8 ± 0.6 with the convolution of simulated proton fluence and cross sections from literature. Overall, this confirms the applicability of FLUKA to simulate radionuclide production at 13 MeV proton beam energy.
Divided government is often thought of as causing legislative deadlock. I investigate the link between divided government and economic reforms using a novel data set on welfare reforms in US states between 1978 and 2010. Panel data regressions show that, under divided government, a US state is around 25% more likely to adopt a welfare reform than under unified government. Several robustness checks confirm this counter-intuitive finding. Case study evidence suggests an explanation based on policy competition between governor, senate, and house.
We study the novel possibilities computer aided design and production open up for the design of building systems. Such systems today can, via individualized mass production, consist of a larger number and more complex parts than previously and therefore be assembled into more complex wholes. This opens up the possibility of designing specialized systems specifically for single buildings. The common order of starting with a building system and designing a building using this system can be reversed to designing a building first and then developing a system specifically for that building. We present and discuss research that incorporates students design projects into research work and fosters links between research and teaching.
Verfügbarkeit und Nachhaltigkeit sind wichtige Anforderungen bei der Planung langlebiger technischer Systeme. Meist werden bei Lebensdaueroptimierungen lediglich einzelne Komponenten vordefinierter Systeme untersucht. Ob eine optimale Lebensdauer eine gänzlich andere Systemvariante bedingt, wird nur selten hinterfragt. Technical Operations Research (TOR) erlaubt es, aus Obermengen technischer Systeme automatisiert die lebensdaueroptimale Systemstruktur auszuwählen. Der Artikel zeigt dies am Beispiel eines hydrostatischen Getriebes.
Finding a good system topology with more than a handful of components is a
highly non-trivial task. The system needs to be able to fulfil all expected load cases, but at the
same time the components should interact in an energy-efficient way. An example for a system
design problem is the layout of the drinking water supply of a residential building. It may be
reasonable to choose a design of spatially distributed pumps which are connected by pipes in at
least two dimensions. This leads to a large variety of possible system topologies. To solve such
problems in a reasonable time frame, the nonlinear technical characteristics must be modelled
as simple as possible, while still achieving a sufficiently good representation of reality. The
aim of this paper is to compare the speed and reliability of a selection of leading mathematical
programming solvers on a set of varying model formulations. This gives us empirical evidence
on what combinations of model formulations and solver packages are the means of choice with the current state of the art.
Nach Stand von Wissenschaft und Technik werden Komponenten hinsichtlich ihrer Eigenschaften, wie Lebensdauer oder Energieeffizienz, optimiert. Allerdings können selbst hervorragende Komponenten zu ineffizienten oder instabilen Systemen führen, wenn ihr Zusammenspiel nur unzureichend berücksichtigt wird. Eine Systembetrachtung schafft ein größeres Optimierungspotential - dem erhöhten Potential steht jedoch auch ein erhöhter Komplexitätsgrad gegenüber. Die vorliegende Arbeit ist im Rahmen des Sonderforschungsbereichs 805 entstanden, dessen Ziel die Beherrschung von Unsicherheit in Systemen des Maschinenbaus ist. Die Arbeit zeigt anhand eines realen Systems aus dem Bereich der Hydraulik, wie Unsicherheit in der Entwicklungsphase beherrscht werden kann. Hierbei ist neu, dass die durch den späteren Betrieb zu erwartende Systemdegradation eines jeden möglichen Systemvorschlags antizipiert werden kann. Dadurch können Betriebs- und Wartungskosten vorausgesagt und minimiert werden und durch eine optimale Betriebs- und Wartungsstrategie die Verfügbarkeit des Systems garantiert werden. Wesentliche Fragen bei der optimalen Auslegung des betrachteten hydrostatischen Getriebes sind dessen physikalische Modellierung, die Darstellung des Optimierungsproblems als gemischt-ganzzahliges lineares Programm, und dessen algorithmische Behandlung zur Lösungsfindung. Hierzu werden Heuristiken zum schnelleren Auffinden sinnvoller Systemtopologien vorgestellt und mittels mathematischer Dekomposition eine Bewertung des dynamischen Verschleiß- und Wartungsverlaufs möglicher Systemvorschläge vorgenommen. Die Arbeit stellt die Optimierung technischer Systeme an der Schnittstelle von Mathematik, Informatik und Ingenieurwesen sowohl gründlich als auch anschaulich und nachvollziehbar dar.
Pure analytical or experimental methods can only find a control strategy for technical systems with a fixed setup. In former contributions we presented an approach that simultaneously finds the optimal topology and the optimal open-loop control of a system via Mixed Integer Linear Programming (MILP). In order to extend this approach by a closed-loop control we present a Mixed Integer Program for a time discretized tank level control. This model is the basis for an extension by combinatorial decisions and thus for the variation of the network topology. Furthermore, one is able to appraise feasible solutions using the global optimality gap.
Unser Zuhause wird zunehmend intelligenter. Smart Homes bieten uns die Steuerung von Haus- oder Unterhaltungstechnik bequem vom Smartphone aus. Junge Familien nutzen die Technologie, um mittels vernetzten Babymonitorsystemen ihren Nachwuchs von überall aus im Blick zu haben. Davon auszugehen, dass solche Systeme mit einem Fokus auf Sicherheit entwickelt wurden, um die sehr persönlichen Daten zu schützen, ist jedoch ein Trugschluss. Die Untersuchung eines handelsüblichen und keineswegs billigen Systems zeigt, dass die Geräte sehr einfach kompromittiert und missbraucht werden können.
Zur Unterstützung des Transformationsbedarfs von Telekommunikationsunternehmen sind die Referenzmodelle des TM Forums in der Praxis weltweit anerkannt. Dabei findet jedoch meist eine losgelöste Nutzung für spezifische Einzelthemen statt. Daher führt dieser Artikel die bestehenden Inhalte in einer industriespezifischen, übergreifenden Referenzarchitektur zusammen. Der Fokus liegt auf den Ebenen Aufbauorganisation, Prozesse, Applikationen und Daten. Darüber hinaus werden inhaltliche Architekturdomänen zur Strukturierung angeboten. Die Referenzarchitektur ist hierarchisch aufgebaut und wird hier beispielhaft für ausgewählte, aggregierte Inhalte beschrieben. Als erste Evaluation wird die Anwendung der Referenzarchitektur in drei Praxisprojekten erläutert.
Development of a subject-oriented reference process model for the telecommunications industry
(2016)
Generally the usage of reference models can be structured top-down or bottom-up. The practical need of agile change and flexible organizational implementation requires a consistent mapping to an operational level. In this context, well-established reference process models are typically structured top-down. The subject-oriented Business Process Management (sBPM) offers a modeling concept that is structured bottom-up and concentrates on the process actors on an
operational level. This paper applies sBPM to the enhanced Telecom Operations Map (eTOM), a well-accepted reference process model in the telecommunications industry. The resulting design artifact is a concrete example for a combination of a bottom-up and top-down developed reference model. The results are evaluated and confirmed in practical context through the involvement of the industry body TMForum.
Zur Anwendung des Eurocode 3 Teil 1-2 für die Heißbemessung und Anregungen für dessen Novellierung
(2016)
Die Eurocodes werden bis zum Jahr 2020 im Europäischen Komitee für Normung (CEN), Technisches Komitee TC 250, überarbeitet. In Vorbereitung auf die Eurocode-Novellierung haben engagierte Ingenieure im Rahmen der Initiative PraxisRegeln Bau (PRB) die für die praktische Anwendung häufig genutzten Teile des Eurocode 3 untersucht. Mit dem Ziel, die Praxistauglichkeit des Eurocode 3 für die Heißbemessung zu verbessern, wurden die bestehende Norm EN 1993 Teil 1-2 insbesondere in Bezug auf die Anwenderfreundlichkeit analysiert und Vorschläge für die europäische Novellierung erarbeitet. Die Analysen zeigen, dass durch Umstrukturierungen und durch die Einführung von Tabellen die Verständlichkeit und Anwenderfreundlichkeit der Regeln für die Heißbemessung bedeutend erhöht werden können.
Inhalt
06 Fast jeder Zweite ist betroffen | Psychosoziale Beratung hilft Studierenden
10 Hacken statt Knacken | IT-Sicherheit im Automobil: Kooperation der FH Aachen mit Interpol
13 Dritter Platz für die FH Aachen beim PR-Bild Award
14 Ich bin ein Berlinger | Tourbus Wolfgang chauffiert keine Rockstars, sondern 3D-Drucker
18 Licht aus, Spot an und ... studieren | Fachbereich Wirtschaftswissenschaften dreht Imagefilm
22 Ein Tropfen Blut genügt | FH-Absolventen forschen in Grundlagenprojekt zu mobilen Geräten, die Malaria diagnostizieren können
24 Die dritte Hand | Babor setzt "Pick-by-Vision"-Datenbrille als weltweit erstes Unternehmen ein - FH-Forscher Prof. Voß war an der Entwicklung beteiligt
30 3 Fragen an den neuen AStA-Vorsitzenden Paul Baumann
32 Maronen-Creme-Suppe
34 Schmerzfrei!? | FH-Mitarbeiter Herbert Meurers war schon tot - und kämpfte sich zurück ins Leben
40 Mit "Sally" über die Weichen | Schienenfahrzeugtechnik an der FH Aachen
44 Sicherheit, Freiheit - und Freude über die Bürokratie | Der Syrer Hasan al Jalloud studiert an der FH Aachen und blickt mit Sorge auf das Geschehen in seinem Heimatland
46 Diese Frau erfüllt keine Klischees | Ana Pérez ist die einzige Frau im Aixtreme-Racing-Team
50 Des Rätsels Lösung: das Bewahren | Gespräch mit Prof. Dr. Heinrich Hemme zum Thema Unterhaltungsmathematik
54 "Da weiß man einfach, was Sache ist" | Bauunternehmer Hubert Schlun über sein Leben, seine Werte, seine FH Aachen
58 Prof. Baumann ist neuer LRK-Vorsitzender | FH-Rektor macht sich für die Fachhochschulen in NRW stark
60 Lehrer mit einem Herz für Holz | Alexander Forbrig nimmt am BeLEK-Programm teil und verbindet sein Studium mit einer Ausbildung zum Berufsschullehrer
63 Impressum
Inhalt
06 Von Aachen nach Hollywood | Am 5. März 2016 lädt Shawn Bu den Star-Wars-Fanfilm, den er für seine Bachelorarbeit produziert hat, bei YouTube hoch. Was dann passiert, ist einfach unglaublich
16 Es geht aufwärts | FH entwickelt Kletterroboter zur Wartung und Reparatur von Windenergieanlagen
20 Auf den Millimeter genau | FH-Bauingenieure vermessen die Urftstaumauer
24 Auf legendären Rennstrecken | FH-Youngster treten in GT-Motorsportserie an
26 "Unten ist da, wo die Erde ist..." | Astronaut Dr. Thomas Reiter trägt an der FH Aachen vor
30 Von der Kita entspannt in den Hörsaal | Wie man den Spagat zwischen Kindererziehung und Studium meistert
32 "Solidarität ist keine Rosinenpickerei" | Martin Schulz und der Spiegel zu Gast an der FH Aachen
34 Ankommen | Drei Beispiele, wie Menschen an der FH Aachen und in der Region sich mit dem Thema Flucht beschäftigen
36 "Wir sind nicht die großen Retter" | Fotodokumentation von Stephan Klumpp
38 Mehr als nur ein Dach über dem Kopf | Dina Bharucha entwickelt ein ausklappbares Flüchlingshaus
40 "Es wird zu wenig über Fluchtursachen gesprochen" | Knut Paul, Pressesprecher der Bundespolizeiinspektion Aachen, über die Flüchtlingslage in der Aachener Region
42 Pinipas Abenteuer | Eine himmlische Pfannkuchensuche durch Europa
44 Warum es sich lohnt, in Nachwuchs zu investieren | Drei Beispiele aus dem FH-Stipendienprogramm
46 Rückenschmerzen ade | Das Start-up-Unternehmen physiosense entwickelt einen "intelligenten" Bürostuhl
48 Fahren und sparen | FH-Wissenschaftler Jörg Kreyer erforscht, wie der Kraftstoffverbrauch von Nutzfahrzeugen gesenkt werden kann
52 Informationsdesign für die Industrie 4.0 | "ProSense": Fachbereich Gestaltung entwickelt neues Verfahren zur visuellen Darstellung großer Datenmengen
58 Maßgeschneidert für unsere Region | Der Studiengang "Open Borders MBA" richtet sich an Führungskräfte, die grenzüberschreitend arbeiten wollen
60 Rennsport im Miniaturformat| FH unterstützt das Einhard-Gymnasium bei der Junior-Ingenieur-Akademie
61 Mathematik der Herzen
63 Impressum
An equitable graph coloring is a proper vertex coloring of a graph G where the sizes of the color classes differ by at most one. The equitable chromatic number is the smallest number k such that G admits such equitable k-coloring. We focus on enumerative algorithms for the computation of the equitable coloring number and propose a general scheme to derive pruning rules for them: We show how the extendability of a partial coloring into an equitable coloring can be modeled via network flows. Thus, we obtain pruning rules which can be checked via flow algorithms. Computational experiments show that the search tree of enumerative algorithms can be significantly reduced in size by these rules and, in most instances, such naive approach even yields a faster algorithm. Moreover, the stability, i.e., the number of solved instances within a given time limit, is greatly improved.
Since the execution of flow algorithms at each node of a search tree is time consuming, we derive arithmetic pruning rules (generalized Hall-conditions) from the network model. Adding these rules to an enumerative algorithm yields an even larger runtime improvement.
We prove characterizations of the existence of perfect ƒ-matchings in uniform mengerian and perfect hypergraphs. Moreover, we investigate the ƒ-factor problem in balanced hypergraphs. For uniform balanced hypergraphs we prove two existence theorems with purely combinatorial arguments, whereas for non-uniform balanced hypergraphs we show that the ƒ-factor problem is NP-hard.
We present a new Min-Max theorem for an optimization problem closely connected to matchings and vertex covers in balanced hypergraphs. The result generalizes Kőnig’s Theorem (Berge and Las Vergnas in Ann N Y Acad Sci 175:32–40, 1970; Fulkerson et al. in Math Progr Study 1:120–132, 1974) and Hall’s Theorem (Conforti et al. in Combinatorica 16:325–329, 1996) for balanced hypergraphs.
Replacement tissues, designed to fill in articular cartilage defects, should exhibit the same properties as the native material. The aim of this study is to foster the understanding of, firstly, the mechanical behavior of the material itself and, secondly, the influence of cultivation parameters on cell seeded implants as well as on cell migration into acellular implants. In this study, acellular cartilage replacement material is theoretically, numerically and experimentally investigated regarding its viscoelastic properties, where a phenomenological model for practical applications is developed. Furthermore, remodeling and cell migration are investigated.
Im Mai 2012 fand in Hamburg erstmals das „Junge Forum Hochschul- und Mediendidaktik“ statt, im Juni 2013 folgte in Potsdam die zweite Auflage als „Junges Forum Medien und Hochschulentwicklung“. 2014 wurde das dritte „Forum“ in Dresden und 2015 das vierte in Düsseldorf ausgerichtet. Das fünfte Forum wird 2016 an der Technischen Universität Darmstadt stattfinden. Initiiert und organisiert wird die Veranstaltung stets von jungen Praktikerinnen und Praktikern sowie Forscherinnen und Forschern mit dem Ziel, dem ‚Nachwuchs‘ in diesem Bereich ein Austauschforum zu geben. Der vorliegende Artikel stellt die konzeptionellen Überlegungen vor, die hinter diesen Treffen stehen. Er zeigt im Rückgriff auf Netzwerktheorie und aktuelle Diskussionen um Professionalisierung und Third Space, wieso für dieses Format ein aktueller Bedarf besteht, und begründet dann im Rückgriff auf didaktische Konzepte auch die methodische Gestaltung der Veranstaltungen. Unsere These: Das kooperative Lernen in Netzwerken ist ein wichtiger Baustein für die Professionalisierung des hochschul- und mediendidaktischen Nachwuchses.
Die Studiengangentwicklung ist ein komplexer Prozess, in dem strukturelle Vorgaben beachtet, viele unterschiedliche Akteure/-innen einbezogen und nicht zuletzt angemessene didaktische Lösungen zum Erreichen der angestrebten Lernergebnisse gefunden werden müssen. Der vorliegende Text nimmt besonders den letzten Punkt in den Blick: Er zeigt, wie Studiengangentwicklung zu einem Thema der (Hochschul-)Didaktik geworden ist und wie sich der didaktische Ansatz von struktur- und prozessorientierten Ansätzen unterscheidet, aber auch, wie er mit diesen zusammenhängt. An einem Beispiel aus dem Wirtschaftsingenieurwesen wird veranschaulicht, was didaktische Studiengangentwicklung in der Praxis ausmacht und wie eine konkrete Implementierung verlaufen kann. Auf dieser Grundlage wird abschließend ein erweitertes Modell der didaktischen Studiengangentwicklung vorgeschlagen.
Die bereits mit Koalitionsvertrag vom 16.12.2013 in Aussicht genommene Neuregulierung der Leiharbeit steht nunmehr kurz bevor. Nach diversen Korrekturen des ursprünglichen Referentenentwurfes des Bundesministeriums für Arbeit und Soziales liegt seit dem 20.7.2016 der endgültige Entwurf des Gesetzes zur Änderung des Arbeitnehmerüberlassungsgesetzes und anderer Gesetze vor (AÜG-E). Die Änderungen sollen zum 1.1.2017 in Kraft treten. Von größeren Änderungen des Gesetzesentwurfs wird allgemein nicht mehr ausgegangen. Für die betriebliche Praxis sollte dies Anlass sein, sich bereits jetzt mit den sich abzeichnenden wichtigsten Neuerungen vertraut zu machen und diese entsprechend umzusetzen, um nachteilige Konsequenzen zu vermeiden.
Wirksamkeit einer OT-Mitgliedschaft im Arbeitgeberverband – Anforderungen an die Verbandssatzung
(2016)
Vergabe öffentlicher Aufträge kann von der Zahlung eines Mindestlohns abhängig gemacht werden
(2016)
We present an effective and simple multiscale method for equilibrating Kremer Grest model polymer melts of varying stiffness. In our approach, we progressively equilibrate the melt structure above the tube scale, inside the tube and finally at the monomeric scale. We make use of models designed to be computationally effective at each scale. Density fluctuations in the melt structure above the tube scale are minimized through a Monte Carlo simulated annealing of a lattice polymer model. Subsequently the melt structure below the tube scale is equilibrated via the Rouse dynamics of a force-capped Kremer-Grest model that allows chains to partially interpenetrate. Finally the Kremer-Grest force field is introduced to freeze the topological state and enforce correct monomer packing. We generate 15 melts of 500 chains of 10.000 beads for varying chain stiffness as well as a number of melts with 1.000 chains of 15.000 monomers. To validate the equilibration process we study the time evolution of bulk, collective, and single-chain observables at the monomeric, mesoscopic, and macroscopic length scales. Extension of the present method to longer, branched, or polydisperse chains, and/or larger system sizes is straightforward.
Rubber materials filled with reinforcing fillers display nonlinear rheological behavior at small strain amplitudes below γ0 < 0.1. Nevertheless, rheological data are analyzed mostly in terms of linear parameters, such as shear moduli (G′, G″), which loose their physical meaning in the nonlinear regime. In this work styrene butadiene rubber filled with carbon black (CB) under large amplitude oscillatory shear (LAOS) is analyzed in terms of the nonlinear parameter I3/1. Three different CB grades are used and the filler load is varied between 0 and 70 phr. It is found that I3/1(φ) is most sensitive to changes of the total accessible filler surface area at low strain amplitudes (γ0 = 0.32). The addition of up to 70 phr CB leads to an increase of I3/1(φ) by a factor of more than ten. The influence of the measurement temperature on I3/1 is pronounced for CB levels above the percolation threshold.
Elastomers are exceptional materials owing to their ability to undergo large deformations before failure. However, due to their very low stiffness, they are not always suitable for industrial applications. Addition of filler particles provides reinforcing effects and thus enhances the material properties that render them more versatile for applications like tyres etc. However, deformation behavior of filled polymers is accompanied by several nonlinear effects like Mullins and Payne effect. To this day, the physical and chemical changes resulting in such nonlinear effect remain an active area of research. In this work, we develop a heterogeneous (or multiphase) constitutive model at the mesoscale explicitly considering filler particle aggregates, elastomeric matrix and their mechanical interaction through an approximate interface layer. The developed constitutive model is used to demonstrate cluster breakage, also, as one of the possible sources for Mullins effect observed in non-crystallizing filled elastomers.
The enormous diversity of seed traits is an intriguing feature and critical for the overwhelming success of higher plants. In particular, seed mass is generally regarded to be key for seedling development but is mostly approximated by using scanning methods delivering only two-dimensional data, often termed seed size. However, three-dimensional traits, such as the volume or mass of single seeds, are very rarely determined in routine measurements. Here, we introduce a device named phenoSeeder, which enables the handling and phenotyping of individual seeds of very different sizes. The system consists of a pick-and-place robot and a modular setup of sensors that can be versatilely extended. Basic biometric traits detected for individual seeds are two-dimensional data from projections, three-dimensional data from volumetric measures, and mass, from which seed density is also calculated. Each seed is tracked by an identifier and, after phenotyping, can be planted, sorted, or individually stored for further evaluation or processing (e.g. in routine seed-to-plant tracking pipelines). By investigating seeds of Arabidopsis (Arabidopsis thaliana), rapeseed (Brassica napus), and barley (Hordeum vulgare), we observed that, even for apparently round-shaped seeds of rapeseed, correlations between the projected area and the mass of seeds were much weaker than between volume and mass. This indicates that simple projections may not deliver good proxies for seed mass. Although throughput is limited, we expect that automated seed phenotyping on a single-seed basis can contribute valuable information for applications in a wide range of wild or crop species, including seed classification, seed sorting, and assessment of seed quality.
This article discusses the contrast between the information transportation companies provide to travellers and that of their brand messaging. Companies’ brand messaging often portrays the service they provide as pleasant, stress free and perfect. Customers and users of the service, on the other hand, often describe their experience of the service as a negative one. This article suggests that the brand value would be greater if transportation companies paid more attention to the users’ experience when designing their information systems, particularly in worst case scenarios.
Mit steigenden Dämmstandards und höheren Komfortanforderungen der Nutzer gerät die Problematik der sommerlichen Überhitzung zunehmend in den Fokus. Um die Überhitzung möglichst gering zu halten, sind Maßnahmen und Lösungen zu entwickeln, die den potenziellen Kühlbedarf eines Gebäudes vermeiden sowie reduzieren. Im Rahmen des europäischen Forschungsprojektes BATIMASS wurden Techniken untersucht, die die sommerliche Raumtemperatur ohne zusätzliche Kühlung (passiv) oder aber mit energieeffizienter wasserbasierter Flächenkühlung (aktiv) reduzieren und die besonders für Gebäude in Stahl(leicht)bauweise geeignet sind. Dafür wurde die Methodik der thermisch äquivalenten Decke weiterentwickelt, um das thermische Verhalten von Profilblechdecken in Gebäuden für beide Lösungsansätze analysieren zu können. Darüber hinaus wurde der Einsatz von Phasenwechselmaterial (PCM) zur Steigerung der Speicherfähigkeit von leichten Decken mit besonders geringer thermischer Masse in Simulationen sowie im Labor untersucht und bewertet.
Für die Verarbeitung von natürlicher Sprache ist ein wichtiger Zwischenschritt das Parsing, bei dem für Sätze der natürlichen Sprache Ableitungsbäume bestimmt werden. Dieses Verfahren ist vergleichbar zum Parsen formaler Sprachen, wie z. B. das Parsen eines Quelltextes. Die Parsing-Methoden der formalen Sprachen, z. B. Bottom-up-Parser, können nicht auf das Parsen der natürlichen Sprache übertragen werden, da keine Formalisierung der natürlichen Sprachen existiert [3, 12, 23, 30].
In den ersten Programmen, die natürliche Sprache verarbeiten [32, 41], wurde versucht die natürliche Sprache mit festen Regelmengen zu verarbeiten. Dieser Ansatz stieß jedoch schnell an seine Grenzen, da die Regelmenge nicht vollständig sowie nicht minimal ist und wegen der benötigten Menge an Regeln schwer zu verwalten ist. Die Korpuslinguistik [22] bot die Möglichkeit, die Regelmenge durch Supervised-Machine-Learning-Verfahren [2] abzulösen.
Teil der Korpuslinguistik ist es, große Textkorpora zu erstellen und diese mit sprachlichen Strukturen zu annotieren. Zu diesen Strukturen gehören sowohl die Wortarten als auch die Ableitungsbäume der Sätze. Vorteil dieser Methodik ist es, dass repräsentative Daten zur Verfügung stehen. Diese Daten werden genutzt, um mit Supervised-Machine-Learning-Verfahren die Gesetzmäßigkeiten der natürliche Sprachen zu erlernen.
Das Maximum-Entropie-Verfahren ist ein Supervised-Machine-Learning-Verfahren, das genutzt wird, um natürliche Sprache zu erlernen. Ratnaparkhi [25] nutzt Maximum-Entropie, um Ableitungsbäume für Sätze der natürlichen Sprache zu erlernen. Dieses Verfahren macht es möglich, die natürliche Sprache (abgebildet als Σ∗) trotz einer fehlenden formalen Grammatik zu parsen.
Low-end-Embedded-Plattformen stellen eine hohe Anforderung an die Entscheidungsfähigkeit des Entwicklers: Zum nächstgrößeren Prozessor greifen und ein Betriebssystem benutzen oder doch besser auf das Betriebssystem verzichten? Die Frage lässt sich einfach beantworten: Einen Nanokernel verwenden und das Embedded-System mit einem minimalen Footprint realisieren. Adam Dunkels Protothreads sind eine ausgesprochen effiziente Art, Mikrocontroller gut strukturiert zu programmieren und gleichzeitig auf Overhead zu verzichten. So können auch mit kleinen 8-bit-Prozessoren anspruchsvolle Aufgaben in einem Thread-Modell bearbeitet werden. Man muss also nicht immer das Rad neu erfinden oder gleich auf Linux-basierte Systeme zurückgreifen.