Conference Proceeding
Refine
Year of publication
Institute
- Fachbereich Maschinenbau und Mechatronik (102)
- Fachbereich Energietechnik (82)
- Fachbereich Elektrotechnik und Informationstechnik (67)
- Fachbereich Bauingenieurwesen (64)
- Solar-Institut Jülich (57)
- Fachbereich Medizintechnik und Technomathematik (31)
- Fachbereich Luft- und Raumfahrttechnik (25)
- Fachbereich Wirtschaftswissenschaften (17)
- INB - Institut für Nano- und Biotechnologien (12)
- Fachbereich Chemie und Biotechnologie (11)
Language
- German (477) (remove)
Document Type
- Conference Proceeding (477) (remove)
Keywords
Kraft-Wärme-Kälte-Kopplung im Leistungsbereich in 10kW mit periodisch arbeitender Sorptionsmaschine
(2009)
LACASA - ein Instrument zur energetischen Analyse und Optimierung von Gebäuden mit Anlagentechnik
(2004)
Traglast- und Einspielanalysen sind vereinfachte doch exakte Verfahren der Plastizität, die neben ausreichender Verformbarkeit keine einschränkenden Voraussetzungen beinhalten. Die Vereinfachungen betreffen die Beschaffung der Daten und Modelle für Details der Lastgeschichte und des Stoffverhaltens. Anders als die klassische Behandlung nichtlinearer Probleme der Strukturmechanik führt die Methode auf Optimierungsprobleme. Diese sind bei realistischen FEM-Modellen sehr groß. Das hat die industrielle Anwendung der Traglast- und Einspielanalysen stark verzögert. Diese Situation wird durch das Brite-EuRam Projekt LISA grundlegend geändert. In LISA entsteht auf der Basis des industriellen FEM-Programms PERMAS ein Verfahren zur direkten Berechnung der Tragfähigkeit duktiler Strukturen. Damit kann der Betriebsbereich von Komponenten und Bauwerken auf den plastischen Bereich erweitert werden, ohne den Aufwand gegenüber elastischen Analysen wesentlich zu erhöhen. Die beachtlichen Rechenzeitgewinne erlauben Parameterstudien und die Berechnung von Interaktionsdiagrammen, die einen schnellen Überblick über mögliche Betriebsbereiche vermitteln. Es zeigt sich, daß abhängig von der Komponente und ihren Belastungen teilweise entscheidende Sicherheitsgewinne zur Erweiterung der Betriebsbereiche erzielt werden können. Das Vorgehen erfordert vom Anwender oft ein gewisses Umdenken. Es werden keine Spannungen berechnet, um damit Sicherheit und Lebensdauer zu interpretieren. Statt dessen berechnet man direkt die gesuchte Sicherheit. Der Post-Prozessor wird nur noch zur Modell- und Rechenkontrolle benötigt. Das Vorgehen ist ähnlich der Stabilitätsanalyse (Knicken, Beulen). Durch namhafte industrielle Projektpartner werden Validierung und die Anwendbarkeit auf eine breite Palette technischer Probleme garantiert. Die ebenfalls in LISA entwickelten Zuverlässigkeitsanalysen sind nichlinear erst auf der Basis direkter Verfahren effektiv möglich. Ohne Traglast- und Einspielanalyse ist plastische Strukturoptimierung auch heute kaum durchführbar. Auf die vorgesehenen Erweiterungen der Werkstoffmodellierung für nichtlineare Verfestigung und für Schädigung konnte hier nicht eingegangen werden. Es herrscht ein deutlicher Mangel an Experimenten zum Nachweis der Grenzen zwischen elastischem Einspielen und dem Versagen durch LCF oder durch Ratchetting.
Traglast- und Einspielanalysen sind vereinfachte doch exakte Verfahren der Plastizität, die neben ausreichender Verformbarkeit keine einschränkenden Voraussetzungen beinhalten. Die Vereinfachungen betreffen die Beschaffung der Daten und Modelle für Details der Lastgeschichte und des Stoffverhaltens. Anders als die klassische Behandlung nichtlinearer Probleme der Strukturmechanik führt die Methode auf Optimierungsprobleme. Diese sind bei realistischen FEM-Modellen sehr groß. Das hat die industrielle Anwendung der Traglast- und Einspielanalysen stark verzögert. Diese Situation wird durch das Brite-EuRam Projekt LISA grundlegend geändert. Die Autoren möchten der Europäischen Kommission an dieser Stelle für die Förderung ausdrücklich danken. In LISA entsteht auf der Basis des industriellen FEM-Programms PERMAS ein Verfahren zur direkten Berechnung der Tragfähigkeit duktiler Strukturen. Damit kann der Betriebsbereich von Komponenten und Bauwerken auf den plastischen Bereich erweitert werden, ohne den Aufwand gegenüber elastischen Analysen wesentlich zu erhöhen. Die beachtlichen Rechenzeitgewinne erlauben Parameterstudien und die Berechnung von Interaktionsdiagrammen, die einen schnellen Überblick über mögliche Betriebsbereiche vermitteln. Es zeigt sich, daß abhängig von der Komponente und ihren Belastungen teilweise entscheidende Sicherheitsgewinne zur Erweiterung der Betriebsbereiche erzielt werden können. Das Vorgehen erfordert vom Anwender oft ein gewisses Umdenken. Es werden keine Spannungen berechnet, um damit Sicherheit und Lebensdauer zu interpretieren. Statt dessen berechnet man direkt die gesuchte Sicherheit. Der Post-Prozessor wird nur noch zur Modell- und Rechenkontrolle benötigt. Das Vorgehen ist änhlich der Stabilitätsanalyse (Knicken, Beulen). Durch namhafte industrielle Projektpartner werden Validierung und die Anwendbarkeit auf eine breite Palette technischer Probleme garantiert. Die ebenfalls in LISA geplante Zuverlässigkeitsanalyse ist erst auf der Basis direkter Verfahren effektiv möglich. Ohne Traglast- und Einspielanalyse ist plastische Strukturoptimierung auch heute kaum durchführbar.
Der Erfolg eines Softwarenentwicklungsprojektes insbesondere eines Systemintegrationsprojektes wird mit der Erfüllung des „Teufelsdreiecks“, „In-Time“, „In-Budget“, „In-Quality“ gemessen. Hierzu ist die Kenntnis der Software- und Prozessqualität essenziell, um die Einhaltung der Qualitätskriterien festzustellen, aber auch, um eine Vorhersage hinsichtlich Termin- und Budgettreue zu treffen. Zu diesem Zweck wurde in der T-Systems Systems Integration ein System aus verschiedenen Key Performance Indikatoren entworfen und in der Organisation implementiert, das genau das leistet und die Kriterien für CMMI Level 3 erfüllt.
Dipl.-Ing. Ralf Engels - DHI Wasser und Umwelt GmbH, Syke. 24 S. (S. 70-93) Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft <1,2007, Aachen> Einleitung [des Autors] Die hydrodynamische Kanalnetzmodellierung ist ein Standardwerkzeug für die Bemessung von Kanalnetzen. Neben der Berechnung der hydrologischen und hydraulischen Gegebenheiten in einem städtischen Einzugsgebiet gehören auch weiterführende Technologien mittlerweile zum Standard. So können alle steuerbaren Elemente eines Kanalnetzes dynamisch so optimiert werden, dass die Leistungsfähigkeit des Kanalnetzes zusätzlich gesteigert werden kann. Automatische Werkzeuge zur dynamischen hydraulischen Schmutzfrachtberechnung ermöglichen die Erweiterung der Steuerung – insbesondere von Entlastungsanlagen – im Hinblick auf die entlasteten Schmutzfrachten und geben darüber hinaus detaillierte Informationen für den Betrieb der Kläranlage. Weiterführende biologische Prozessmodellierungen ergänzen dieses Themenfeld. GIS Werkzeuge können bei der räumlich differenzierten Modellierung von Kanalnetzen wertvolle Dienste leisten. Die detaillierte Betrachtung einzelner Haltungsflächen in ihrem räumlichen Zusammenhang ist damit ebenso möglich wie eine komplette Verwaltung aller für die Kanalnetzmodellierung notwendigen Daten in einem übersichtlichen grafischen Menü. Die Grenzen der Kanalnetzmodellierung lagen in früheren Zeiten an dessen Rand. Detaillierte Informationen über die Wege des Wassers auf der Geländeoberfläche, an der Schnittstelle zu Vorflutern und in der Interaktion mit Grundwasser waren bisher nicht modelltechnisch bewertbar. Eine dynamische Kopplung verschiedener Modelle zur Darstellung aller relevanten hydraulischen Prozesse ermöglicht eine integrative Betrachtung aller möglichen Wege, die das Wasser in der Stadt nehmen kann (Mark & Djordjevic, 2006). Dieser Beitrag präsentiert den Stand der Technik für die integrierte Modellierung städtischer Überschwemmungen mit Hilfe der Modellkopplung von Oberflächenmodellen und Kanalnetzmodellen.
Mischwassereinleitungen in Gewässer nach BWK Merkblatt M3 - Vorteile des detaillierten Nachweises
(2009)
Dipl.-Ing. Brigitte Huber und Dr.-Ing. Gerd Demny - Wasserverband Eifel Rur, Düren. 16 Seiten ( S. 59-74). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Zusammenfassung [der Autoren] Für das städtisch geprägte Einzugsgebiet des Broicher Baches sind ein vereinfachter und ein detaillierter Nachweis nach BWK-M3 durchgeführt worden. Dabei zeigt sich, dass die Methodik des vereinfachten Nachweises nicht geeignet ist, um eine realitätsnahe Abbildung der einleitungsgeprägten Abflüsse des Gewässers zu erhalten. Dies ist insbesondere auf die Vernachlässigung von Wellentranslation und -retention im Gerinne zurückzuführen. Die dadurch entstehende Fehleinschätzung der Abflussverhältnisse versperrt den Blick auf eine situationsgerechte Maßnahmenplanung. Der mit Hilfe eines NA-Modells geführte detaillierte Nachweis ist zwar in der Erstellung aufwändiger, zeichnet aber ein reales Bild der Abflusserhöhung durch Einleitungen. Mit Hilfe des Modells können die wesentlichen Einflüsse schnell lokalisiert und zielführende Maßnahmenvarianten identifiziert werden. In dem hier vorgestellten Beispiel des Broicher Baches können die ursprünglich identifizierten acht Maßnahmen auf eine reduziert werden. Das Gesamtvolumen der erforderlichen Rückhaltungen wird um die Hälfte verringert. Der Vergleich beider Nachweismethoden legt nach Ansicht der Autoren nahe, den vereinfachten Nachweis höchstens für eine erste Einschätzung des Maßnahmenbedarfs anzuwenden. Die Maßnahmenidentifikation und -dimensionierung sollte grundsätzlich mit der detaillierten Nachweismethode durchgeführt werden, die auf einem entsprechenden NA-Modell basiert. Dies gilt insbesondere für Gewässerstrecken, deren Abfluss durch mehrere, hintereinander liegende Einleitungsstellen geprägt ist.
Modenfilter als Schalldämpfer für axiale Turbomaschinen : Möglichkeiten und Grenzen des Einsatzes
(1992)
1) Module werden die Fahrzeugplattform und den –aufbau in Zukunft weiterhin und in zunehmendem Maße bestimmen. 2) Neue Module und Modulschnittstellen am Fahrzeug werden überdacht und können in der Zukunft erwartet werden. 3) Die Wertschöpfung und der Entwicklungsumfang wird sich vom OEM zum Modullieferanten verlagern. 4) Modulvergaben werden in der Zukunft noch stärker auf Innovation und Kostenreduktion beruhen. 5) Modularisierung des Fahrzeuges heißt ein Aufbrechen der Fahrzeugkarosserie und wird daher von der Beherrschung struktureller Aufgaben sowie der Lösung der (sichtbaren) Modulübergänge bestimmt sein. 6) Neben den Systemintegratoren und den Komponentenspezialisten besetzen die Modullieferanten die erste Lieferantenriege. 7) Der Modullieferant wird neben höchster Fertigungsexpertise ein hohes Maß an (Teil-)fahrzeug-Know-How und Produktentwickler-mentalität bereitstellen.
Neue Möglichkeiten der Klebstoffverarbeitung durch geschwindigkeitsproportionalen Handauftrag
(2006)
Im Rahmen eines modernen Blitzschutzsystems für Stahlbeton-Bauten bietet es sich an, die Betonbewehrung zu benutzen: - Sie kann die Funktionen der Ableitungseinrichtungen und des Blitzschutz- Potentialausgleichs bei einem klassischen Gebäude-Blitzschutz übernehmen [1]; - Sie kann, ggf. bei entsprechender Ergänzung, als ein geschlossener Käfig ausgebildet werden und damit eine deutliche Reduzierung der Belastung elektrischer / elektronischer Systeme durch blitzinduzierte elektromagnetische Felder erbringen (LEMP-Schutz [2]). Die Nutzung der Bewehrung ist dabei grundsätzlich gleichermaßen bei Neubauten wie auch bei Ertüchtigungen möglich und sinnvoll. So stellt die Nutzung der Bewehrung beispielsweise im Bereich von Großkraftwerken eine wesentliche Ertüchtigungsmaßnahme für den Blitzschutz elektrischer und elektronischer Einrichtungen dar: - Einerseits wird der Blitzschutz-Potentialausgleich durch den Anschluss metallener Einrichtungen wie Elektronik-Schränke, Kabeltrag-Konstruktionen, Rohrleitungen, etc. an die Bewehrung deutlich verbessert. - Andererseits kann bei größeren Gebäuden die elektromagnetische Schirmwirkung durch die elektrische Überbrückung von vorhandenen Dehnfugen bei Stahlbetonbauten optimiert werden. Diese Dehnfugen sind teilweise nur unzureichend überbrückt, so dass bei Blitzeinschlag in das betreffende oder ein benachbartes Gebäude an Kabelstrecken, die über die Dehnfuge hinwegführen, rel. hohe Spannungen induziert werden können [2, 3]. Die sich um das gesamte Gebäude herumziehende oder zwischen zwei Gebäuden befindliche Dehnfuge muss deshalb im Abstand von maximal einigen Metern überbrückt werden. Im Falle von Blitzschutz-Ertüchtigungen in vorhandenen Gebäuden wird bisher an jeder geplanten Anschlussstelle die Bewehrung großflächig (∅ wenige 10 cm) freigelegt, dort ein elektrischer Anschluss zu dem Bewehrungsstab hergestellt, z.B. mittels eines Erdungsfestpunkts, und dann die Betonoberfläche wieder geschlossen. Je nach prognostizierter Strombelastung wird teilweise versucht, den über den Anschluss fließenden Strom bereits auf mehrere Bewehrungsstäbe zu verteilen. Dazu sind entweder die kreuzenden Stäbe zu verschweißen oder es sind direkt Anschlüsse an zwei Bewehrungsstäbe herzustellen. All dieses bedeutet einen hohen Aufwand bei der Freilegung der Bewehrung und auch wieder bei der Schließung der entstandenen Betonlöcher. Es soll deshalb hier untersucht werden, ob es beispielsweise zum Zwecke des Blitzschutz-Potentialausgleichs und auch zur Überbrückung von Dehnfugen ausreichend ist, den Anschluss an die Bewehrung nach einfachen Verfahren nur jeweils an einen Bewehrungsstab herzustellen. Damit würde der finanzielle und administrative Aufwand an Betonarbeiten deutlich reduziert. Die hier dargestellten Verfahren sind dabei insbesondere für den Einsatz bei Blitzschutz-Ertüchtigungen in bestehenden Gebäuden vorgesehen. Abschließend sollen deshalb die Möglichkeiten zur Prüfung korrekter Anschlüsse, die Grenzen der Verfahren sowie auch die Grenzen der Anwendbarkeit bei Neuanlagen diskutiert werden.
Neue Perspektiven für die Bahn in der Produktions- und Distributionslogistik durch Prozessautomation
(2019)
Deutschland braucht mehr Eisenbahn um CO2-Emissionen aus dem Verkehr zu reduzieren. Sie muss zum Rückgrat aktueller Logistikprozesse, z.B. bei Kaufmannsgütern und E-Commerce, werden. Dies geht nicht ohne neuartige betriebliche Konzepte und eine Transformation des Güterwagens von einem „dummen Stück Stahl“ zu einem modernen Werkzeug der Logistik.
Als „Güterwagen 4.0“ wird ein kommunikativer und kooperativer Güterwagen verstanden, der die Voraussetzung zur Automatisierung aller Prozesse der Zugvorbereitung bereitstellt, sich aber ansonsten vollkommen kompatibel mit heutigen Betriebsverfahren im Hauptlauf präsentiert. Durch Kommunikation zwischen Güterwagen und umgebenden intelligenten Systemen im Sinne eines „Internet der Dinge“ gelingt damit unter Anderem die Realisierung hoch effizienter Gleisanschlussverkehre, die der Güterbahn neue Märkte abseits der klassisch bahn-affinen Verkehre erschließen und letztlich den Wandel zu einer nachhaltigen Gütermobilität fördern.
Im Projekt Coolplan‐ AIR geht es um die Fortentwicklung und Feld‐ Validierung eines Berechnungs‐ und Auslegungstools zur energieeffizienten Kühlung von Gebäuden mit luftgestützten Systemen. Neben dem Aufbau und der Weiterentwicklung von Simulationsmodellen erfolgen Vermessungen der Gesamtsysteme anhand von Praxisanlagen im Feld. Eine der betrachteten Anlagen arbeitet mit indirekter Verdunstung. Diese Veröffentlichung zeigt den Entwicklungsprozess und den Aufbau des Simulationsmodells zur Verdunstungskühlung in der Simulationsumgebung Matlab‐ Simulink mit der CARNOT‐ Toolbox. Das besondere Augenmerk liegt dabei auf dem physikalischen Modell des Wärmeübertragers, in dem die Verdunstung implementiert ist. Dem neuen Modellansatz liegt die Annahme einer aus der Enthalpie‐ Betrachtung hergeleiteten effektiven Wärmekapazität zugrunde. Des Weiteren wird der Befeuchtungsgrad als konstant angesehen und eine standardisierte Zunahme der Wärmeübertragung des feuchten gegenüber dem trockenen Wärmeübertrager angenommen. Die Validierung des Modells erfolgte anhand von Literaturdaten. Für den trockenen Wärmetauscher ist der maximale absolute Fehler der berechneten Austrittstemperatur (Zuluft) kleiner als ±0.1 K und für den nassen Wärmetauscher (Kühlfall) unter der Annahme eines konstanten Verdunstungsgrades kleiner als ±0.4 K.
Objekt-orientierte Modellierung hybrider Systeme mit heuristischen und analytischen Merkmalen
(1994)
Wir stellen hier exemplarisch STACK Aufgaben vor, die frei von der Problematik sind, welche sich durch diverse Kommunikationswege und (webbasierte) Computer Algebra Systeme (CAS) ergibt. Daher sind sie insbesondere für eine Open-Book Online Prüfung geeignet, da eine faire Prüfungssituation gewährleistet werden kann.
In: Forum Bauinformatik 2005 : junge Wissenschaftler forschen / [Lehrstuhl Bauinformatik, Brandenburgische Technische Universität Cottbus. Frank Schley ... (Hrsg.)]. - Cottbus : Techn. Universität 2005. S. 1-10 ISBN 3-934934-11-0
Mittels eines operationalen Ansatzes zur Semantikdefinition wird am Bei-spiel des konzeptuellen Gebäudeentwurfs ein Regelsystem formalisiert. Dazu werdenzwei Teile, zum einen das Regelwissen, zum anderen ein konzeptueller Entwurfsplan zunächst informell eingeführt und dann formal beschrieben. Darauf aufbauend wird die Grundlage für eine Konsistenzprüfung des konzeptuellen Entwurfs gegen das Regel-wissen formal angeben
Optimierung des potentiellen Sauerstoffeintrags auf Treppenschussrinnen mit gemäßigter Neigung
(2009)
Pandaboard, TurtleBot, Kinect und Co. : Low-Cost Hardware im Lehreinsatz für die mobile Robotik.
(2012)
Mit freundlicher Genehmigung der Autoren und des Oldenbourg Industrieverlags https://www.oldenbourg-industrieverlag.de/de/9783835633223-33223 erschienen als Beitrag im Tagungsband zur AALE-Tagung 2012. 9. Fachkonferenz 4.-5. Mai 2012, Aachen, Fachhochschule. ISBN 9783835633223 S 8-1 S. 229-238 Original-Abstract des Autors: "Die mobile Robotik wird durch den Einsatz von Low-Cost Hardware einem breiten Publikum zugänglich. Bis vor kurzem basierte eine erschwingliche Hardware meist auf Mikrocontrollern mit den entsprechenden Leistungseinschränkungen z.B. im Bereich der Bildverarbeitung. Die Wahrnehmung einer 3D-Umgebung und somit die Möglichkeit zur autonomen Navigation wurde mit relativ kostenintensiver Hardware, z.B. Stereo-Vision-Systemen und Laserscannern gelöst. Die zur Auswertung der Sensorik notwendige Rechenleistung stand - entweder aufgrund des Stromverbrauchs oder der Performance meist für mobile Plattformen (lokal) - nicht zur Verfügung. Durch Einsatz von leistungsfähigen Prozessoren aus dem Bereich der Mobilgeräte (Smartphones, Tablets) und neuartigen Sensoren des Consumer-Bereichs, wie der Kinect, können mobile Roboter kostengünstig für den Einsatz in der Lehre aufgebaut werden.
Dipl.Ing. Johann Andorfer , Tandler.com GmbH, Buch a. Erlbach. Abstract zum 1. Aachener Softwaretag in der Wasserwirtschaft <1,2007, Aachen>. 2 S. (S. 136-137) Eine nachhaltige Sicherung der Funktionalität und der ökologischen Verträglichkeit eines mittleren bis großen Kanalnetzes erfordert eine umfassende und detaillierte Modellierung in Raum und Zeit. Um den in den Richtlinien geforderten statistischen Anforderungen gerecht zu werden und die jährlichen Häufigkeiten, Mengen und Zeiträume der Belastungen erwartungstreu abschätzen zu können, ist es zielführend und notwendig, lange Zeiträume und die Gesamtheit der Einzugsgebiete möglichst detailliert zu betrachten. Die hydraulische Funktionalität und Sicherheit soll meistens mit Hilfe zeitsymmetrischer (hydrodynamischer) Verfahren nur durch Betrachtung von Modellregen, allenfalls Regenserien, sichergestellt werden. Für die Abschätzung der jährlich zu erwartenden Emissionen in unsere natürlichen Gewässer mit ihren Mengen, Frequenzen und Dauern werden normalerweise Langzeitsimulationen natürlicher Regenreihen über möglichst große Zeiträume mit zeitasymmetrischen (hydrologischen) Verfahren durchgeführt. Die betrachteten Kanalnetze werden zumeist vereinfacht (Grobnetze), um die Rechenzeiten erträglicher zu gestalten. Wünschenswert wäre jedoch eine allen Anforderungen gerecht werdende wirklichkeitsnahe Modellierung des gesamten Kanalnetzes in all seinen Details, Vermaschungen und Wechselwirkungen (Feinnetz) und dessen zeitsymmetrische und damit verlässliche Simulation mit langjährigen Regenreihen. Bereits vor 15 Jahren wurde im Hause Tandler begonnen, die Berechnungssoftware durch Parallelisierung auf symmetrische Multiprozessortechnologien auszurichten. In neuerer Zeit hält diese Technik durch die Mehrkernprozessoren in normalen Notebooks und PCs Einzug in die Ingenieurbüros und Abwasserbetriebe und sorgt schon für wesentliche Einsparungen an Rechenzeit. Doch erst durch die Kombination der Parallelisierung mit dem Prinzip des verteilten Rechnens (d.h. die Einbeziehung mehrerer PCs eines Netzwerkes in die Berechnung) erhält man die Chance ausreichend Rechenkapazität zur Verfügung zu stellen, um nicht nur eine einzelne Langzeitsimulation eines Feinnetzes durchzuführen, sondern sogar mehrere Sanierungsalternativen zu überprüfen. Die zukunftsweisenden Arbeiten von Dipl. Math. R. Tandler auf diesem Gebiet sind Thema dieses Vortrags.
Applications of Graph Transformations with Industrial Relevance Lecture Notes in Computer Science, 2004, Volume 3062/2004, 90-105, DOI: 10.1007/978-3-540-25959-6_7 In this paper we discuss how tools for conceptual design in civil engineering can be developed using graph transformation specifications. These tools consist of three parts: (a) for elaborating specific conceptual knowledge (knowledge engineer), (b) for working out conceptual design results (architect), and (c) automatic consistency analyses which guarantee that design results are consistent with the underlying specific conceptual knowledge. For the realization of such tools we use a machinery based on graph transformations. In a traditional PROGRES tool specification the conceptual knowledge for a class of buildings is hard-wired within the specification. This is not appropriate for the experimentation platform approach we present in this paper, as objects and relations for conceptual knowledge are due to many changes, implied by evaluation of their use and corresponding improvements. Therefore, we introduce a parametric specification method with the following characteristics: (1) The underlying specific knowledge for a class of buildings is not fixed. Instead, it is built up as a data base by using the knowledge tools. (2) The specification for the architect tools also does not incorporate specific conceptual knowledge. (3) An incremental checker guarantees whether a design result is consistent with the current state of the underlying conceptual knowledge (data base).
In: Alfha.net / Sektion Bauingenieurwesen: 1. [Erster] Erfahrungsaustausch : Absolventen des Fachbereichs Bauingenieurwesens berichten. 13. Oktober 2006. S. 16-17 Der Umbau des Aachener Buschtunnels im Rahmen des europäischen Hochgeschwindigkeitsschienennetzes wird im sogenannten "Neuen Österreichischen Tunnelbauverfahren (NOeT)", also ein Ausbau in Kalotte, Strosse und Sohle durchgeführt.
Plasma-Spritzen
(1991)
Praktische Untersuchungen zum zeitlichen Übertragungs- und Bündelfehlerverhalten der IEEE 802.15.4
(2006)
In der Vergangenheit basierten große Systemintegrationsprojekte in der Regel auf Individualentwicklungen für einzelne Kunden. Getrieben durch Kostendruck steigt aber der Bedarf nach standardisierten Lösungen, die gleichzeitig die individuellen Anforderungen des jeweiligen Umfelds berücksichtigen. T-Systems GEI GmbH wird beiden Anforderungen mit Produktkerneln gerecht. Neben den technischen Aspekten der Kernelentwicklung spielen besonders organisatorische Aspekte eine Rolle, um Kernel effizient und qualitativ hochwertig zu entwickeln, ohne deren Funktionalitäten ins Uferlose wachsen zu lassen. Umgesetzt hat T-Systems dieses Konzept für Flughafeninformationssysteme. Damit kann dem wachsenden Bedarf der Flughafenbetreiber nach einer effizienten und kostengünstigen Softwarelösung zur Unterstützung Ihrer Geschäftsprozesse entsprochen werden.
Die potenziellen Auswirkungen der Digitalisierung auf die Lehre sind seit langem Gegenstand ausführlicher Diskussionen innerhalb der Wirtschaftsinformatik (WI) (z. B. in Auth et al. 2021, Barton et al. 2019, Klotz et al. 2019). Nicht zuletzt der in nahezu allen Wirtschaftszweigen bestehende Mangel an qualifizierten Fachkräften lenkt den Diskurs auf einen verbesserten Zugang zu Bildung und gleichen Bildungschancen. Aus dieser Vision heraus und dem Schub der Digitalisierung entstehen Bildungskonzepte wie Open Educational Resources (OER), die gesellschaftlichen Problemen, wie dem des Fachkräftemangels, entgegenwirken sollen. Im Rahmen dieses Kurzbeitrags wird das Projekt WiLMo - "Wirtschaftsinformatik Lehr- und Lernmodule" vorgestellt. WiLMo wird im Rahmen von OERContent.nrw unter Beteiligung von sechs Hochschulen entwickelt und gefördert. Alle Projektbeteiligten arbeiten gemeinsam daran, einheitliche digitale Lehr- und Lernmaterialien im OER-Format für die Kernmodule der Wirtschaftsinformatik zu entwickeln und in garantiert hoher Qualität zur Verfügung zu stellen.
Primäre Ziele des Internets der Dinge sind die Steuerung physischer Gegenstände aus der Distanz und das Erfassen von Informationen aus dem Umfeld dieser Gegenstände. Dazu werden Hardwarekomponenten in Gegenstände des täglichen Lebens und die Umwelt integriert. Mithilfe von Informations- und Kommunikationstechnologien entsteht hieraus das Internet der Dinge (Internet of Things, IoT). Vor einem Jahr wurde mit Narrowband Internet of Things (NB-IoT) eine Technologie die es ermöglicht, Hardwarekomponenten energieeffizient und unmittelbar über das Mobilfunknetz zu vernetzen. Gegenstände werden dadurch über große Reichweiten eigenständig kommunikationsfähig. Das IoT steht mit NB-IoT vor einem gestiegenen Nutzenpotenzial, da eine zunehmende Anzahl miteinander verbundener Gegenstände und der Austausch größerer Datenmengen realisierbar sind. Damit sind aus wirtschaftlicher Sicht neue, innovative Anwendungsfälle des IoT möglich, die auch bereits in der Praxis diskutiert werden. In diesem Beitrag wird anhand eines konkreten Anwendungsfalls untersucht, welche neuen Geschäfts- bzw. Partnermodelle durch die gemeinsame Nutzung von NB-IoT-Daten und Big Data-Technologien entstehen und welcher qualitative Mehrwert für die an einem Anwendungsfall beteiligten Stakeholder geschaffen wird. Dazu wird – einem konstruktionsorientierten Forschungsansatz folgend – ein Bewertungsrahmen zur qualitativen Wertschöpfungsanalyse von NB-IoT entwickelt, der u.a. auf der Schablone nach Cockburn und dem Business Model Canvas basiert. Anhand dieses Bewertungsrahmens wird ein Anwendungsfall untersucht, der in anonymisierter Form an konkrete Praxisprojekte angelehnt ist. Konkret wird ein Anwendungsfall betrachtet, der einen Fahrradverleih 2.0 basierend auf dem Einsatz von NB-IoT vorschlägt. Aus den Untersuchungsergebnissen gehen beispielsweise Erkenntnisse hervor, wie Geschäftsmodelle auf