Refine
Year of publication
Document Type
- Conference Proceeding (33)
- Article (9)
- Book (1)
- Part of a Book (1)
- Course Material (1)
- Report (1)
Keywords
- CAD (15)
- civil engineering (14)
- Bauingenieurwesen (13)
- Natural language processing (4)
- Information extraction (3)
- Architektur (2)
- Clustering (2)
- architecture (2)
- Active learning (1)
- Architectural design (1)
- CAD ; (1)
- Deep learning (1)
- Enterprise information systems (1)
- Human Factors (1)
- Information Extraction (1)
- Information Integration Tools (1)
- Knowledge Management (1)
- Machine learning (1)
- Model-driven software engineering (1)
- Natural Language Processing (1)
Institute
- Fachbereich Medizintechnik und Technomathematik (46) (remove)
In recent years, the development of large pretrained language models, such as BERT and GPT, significantly improved information extraction systems on various tasks, including relation classification. State-of-the-art systems are highly accurate on scientific benchmarks. A lack of explainability is currently a complicating factor in many real-world applications. Comprehensible systems are necessary to prevent biased, counterintuitive, or harmful decisions.
We introduce semantic extents, a concept to analyze decision patterns for the relation classification task. Semantic extents are the most influential parts of texts concerning classification decisions. Our definition allows similar procedures to determine semantic extents for humans and models. We provide an annotation tool and a software framework to determine semantic extents for humans and models conveniently and reproducibly. Comparing both reveals that models tend to learn shortcut patterns from data. These patterns are hard to detect with current interpretability methods, such as input reductions. Our approach can help detect and eliminate spurious decision patterns during model development. Semantic extents can increase the reliability and security of natural language processing systems. Semantic extents are an essential step in enabling applications in critical areas like healthcare or finance. Moreover, our work opens new research directions for developing methods to explain deep learning models.
Messenger apps like WhatsApp or Telegram are an integral part of daily communication. Besides the various positive effects, those services extend the operating range of criminals. Open trading groups with many thousand participants emerged on Telegram. Law enforcement agencies monitor suspicious users in such chat rooms. This research shows that text analysis, based on natural language processing, facilitates this through a meaningful domain overview and detailed investigations. We crawled a corpus from such self-proclaimed black markets and annotated five attribute types products, money, payment methods, user names, and locations. Based on each message a user sends, we extract and group these attributes to build profiles. Then, we build features to cluster the profiles. Pretrained word vectors yield better unsupervised clustering results than current
state-of-the-art transformer models. The result is a semantically meaningful high-level overview of the user landscape of black market chatrooms. Additionally, the extracted structured information serves as a foundation for further data exploration, for example, the most active users or preferred payment methods.
Messenger apps like WhatsApp and Telegram are frequently used for everyday communication, but they can also be utilized as a platform for illegal activity. Telegram allows public groups with up to 200.000 participants. Criminals use these public groups for trading illegal commodities and services, which becomes a concern for law enforcement agencies, who manually monitor suspicious activity in these chat rooms. This research demonstrates how natural language processing (NLP) can assist in analyzing these chat rooms, providing an explorative overview of the domain and facilitating purposeful analyses of user behavior. We provide a publicly available corpus of annotated text messages with entities and relations from four self-proclaimed black market chat rooms. Our pipeline approach aggregates the extracted product attributes from user messages to profiles and uses these with their sold products as features for clustering. The extracted structured information is the foundation for further data exploration, such as identifying the top vendors or fine-granular price analyses. Our evaluation shows that pretrained word vectors perform better for unsupervised clustering than state-of-the-art transformer models, while the latter is still superior for sequence labeling.
In: Advances in intelligent computing in engineering : proceedings of the 9.International EG-ICE Workshop ; Darmstadt, (01 - 03 August) 2002 / Martina Schnellenbach-Held ... (eds.) . - Düsseldorf: VDI-Verl., 2002 .- Fortschritt-Berichte VDI, Reihe 4, Bauingenieurwesen ; 180 ; S. 1-35 The paper describes a novel way to support conceptual design in civil engineering. The designer uses semantical tools guaranteeing certain internal structures of the design result but also the fulfillment of various constraints. Two different approaches and corresponding tools are discussed: (a) Visually specified tools with automatic code generation to determine a design structure as well as fixing various constraints a design has to obey. These tools are also valuable for design knowledge specialist. (b) Extensions of existing CAD tools to provide semantical knowledge to be used by an architect. It is sketched how these different tools can be combined in the future. The main part of the paper discusses the concepts and realization of two prototypes following the two above approaches. The paper especially discusses that specific graphs and the specification of their structure are useful for both tool realization projects.
In: Proceedings of the 39th Annual Hawaii International Conference on System Sciences, 2006. HICSS '06 http://dx.doi.org/10.1109/HICSS.2006.200 The conceptual design phase at the beginning of the building construction process is not adequately supported by any CAD-tool. Conceptual design support needs regarding two aspects: first, the architect must be able to develop conceptual sketches that provide abstraction from constructive details. Second, conceptually relevant knowledge should be available to check these conceptual sketches. The paper deals with knowledge to formalize for conceptual design. To enable domain experts formalizing knowledge, a graph-based specification is presented that allows the development of a domain ontology and design rules specific for one class of buildings at runtime. The provided tool support illustrates the introduced concepts and demonstrates the consistency analysis between knowledge and conceptual design.
Der konstruktive Entwurf wird in derzeitigen CAD-Systemen gut unterstützt, nicht aber der konzeptuelle Gebäude-Entwurf. Dieser abstrahiert von konstruktiven Elementen wie Linie, Wand oder Decke, um auf die Konzepte, d.h. die eigentlichen Funktionen, heraus zu arbeiten. Diese abstraktere, funktionale Sichtweise auf ein Gebäude ist während der frühen Entwurfsphase essentiell, um Struktur und Organisation des gesamten Gebäudes zu erfassen. Bereits in dieser Phase muss Fachwissen (z. B. rechtliche, ökonomische und technische Bestimmungen) berücksichtigt werden. Im Rahmen des vorliegenden Projekts werden Software-Werkzeuge integriert in industrielle CAD-Systeme entwickelt, die den konzeptuellen Gebäude-Entwurf ermöglichen und diesen gegen Fachwissen prüfen. Das Projekt ist in zwei Teile gegliedert. Im Top-Down-Ansatz werden Datenstrukturen und Methoden zur Strukturierung, Repräsentation und Evaluation von gebäudespezifischem Fachwissen erarbeitet. Dieser Teil baut auf den graphbasierten Werkzeugen PROGRES und UPGRADE des Lehrstuhls auf. Der Bottom-Up-Ansatz ist industriell orientiert und hat zum Ziel, das kommerzielle CAD-System ArchiCAD zu erweitern. Hierbei soll der frühe, konzeptuelle Gebäude-Entwurf in einem CAD-System ermöglicht werden. Der Entwurf kann darüber hinaus gegen das definierte Fachwissen geprüft werden. Im Rahmen des graphbasierten Top-Down-Ansatzes wurde zunächst eine neue Spezifikationsmethode für die Sprache PROGRES entwickelt. Das PROGRES-System erlaubt die Spezifikation von Werkzeugen in deklarativer Form. Üblicherweise wird domänenspezifisches Fachwissen in der PROGRES-Spezifikation codiert, das daraus generierte visuelle Werkzeug stellt dann die entsprechende Funktionalität zur Verfügung. Mit dieser Methode sind am Lehrstuhl für Informatik III Werkzeuge für verschie-dene Anwendungsdomänen entstanden. In unserem Fall versetzen wir einen Domänen-Experten, z. B. einen erfahrenen Architekten, in die Lage, Fachwissen zur Laufzeit einzugeben, dieses zu evaluieren, abzuändern oder zu ergänzen. Im Rahmen der bisherigen Arbeit wurde dazu eine parametrisierte PROGRES-Spezifikation und zwei darauf aufbauende Werkzeuge entwickelt, welche die dynamische Eingabe von gebäude-technisch relevantem Fachwissen erlauben und einen graphbasierten, konzeptuellen Gebäude-Entwurf ermöglichen. In diesem konzeptuellen Gebäude-Entwurf wird von Raumgrößen und Positionen abstrahiert, um die funktionale Struktur eines Gebäudes zu beschreiben. Das Fachwissen kann von einem Architekten visuell definiert werden. Es können semantische Einheiten, im einfachsten Fall Räume, nach verschiedenen Kriterien kategorisiert und klassifiziert werden. Mit Hilfe von Attributen und Relationen können die semantischen Einheiten präziser beschrieben und in Beziehung zueinander gesetzt werden. Die in PROGRES spezifizierten Konsistenz-Analysen erlauben die Prüfung eines graphbasierten konzeptuellen Gebäude-Entwurfs gegen das dynamisch eingefügte Fachwissen. Im zweiten Teil des Forschungsprojekts, dem Bottom-Up-Ansatz, wird das CAD-System ArchiCAD erweitert, um den integrierten konzeptuellen Gebäude-Entwurf zu ermöglichen. Der Architekt erhält dazu neue Entwurfselemente, die Raumobjekte, welche die relevanten semantischen Einheiten während der frühen Entwurfsphase repräsentieren. Mit Hilfe der Raumobjekte kann der Architekt in ArchiCAD den Grundriss und das Raumprogramm eines Gebäudes entwerfen, ohne von konstruktiven Details in seiner Kreativität eingeschränkt zu werden. Die Arbeitsweise mit Raumobjekten entspricht dem informellen konzeptuellen Entwurf auf einer Papierskizze und ist daher für den Architekten intuitiv und einfach zu verwenden. Durch die Integration in ArchiCAD ergibt sich eine weitere Unterstützung: Das im Top-Down-Ansatz spezifizierte Fach-wissen wird verwendet, um den konzeptuellen Gebäude-Entwurf des Architekten auf Regelverletzungen zu überprüfen. Entwurfsfehler werden angezeigt. Zum Abschluss des konzeptuellen Gebäude-Entwurfs mit Raumobjekten wird durch ein weiteres neu entwickeltes Werkzeug eine initiale Wandstruktur automatisch erzeugt, die als Grundlage für die folgenden konstruktiven Entwurfsphasen dient. Alle beschriebenen Erwei-terungen sind in ArchiCAD integriert, sie sind für den Architekten daher leicht zu erlernen und einfach zu bedienen.
Agil ist im Trend und immer mehr Unternehmen, die ihre Projekte bisher nach klassischen Prinzipien durchführten, denken über den Einsatz agiler Methoden nach. Doch selbst wenn die Organisation bereits beide Philosophien unterstützt, gilt für ein Projekt meist die klare Vorgabe: agil oder klassisch. Es gibt aber noch einen anderen Ansatz, mit diesen "unterschiedlichen Welten" umzugehen: Und zwar die beiden Philosophien innerhalb eines Projekts zu kombinieren. Wie dies in der Praxis aussehen und gelingen kann, zeigen Dr. Michael Kirchhof und Prof. Dr. Bodo Kraft in diesem Beitrag.
In: Net-distributed Co-operation : Xth International Conference on Computing in Civil and Building Engineering, Weimar, June 02 - 04, 2004 ; proceedings / [ed. by Karl Beuke ...] . - Weimar: Bauhaus-Univ. Weimar 2004. - 1. Aufl. . Seite 1-14 ISBN 3-86068-213-X International Conference on Computing in Civil and Building Engineering <10, 2004, Weimar> Summary In our project, we develop new tools for the conceptual design phase. During conceptual design, the coarse functionality and organization of a building is more important than a detailed worked out construction. We identify two roles, first the knowledge engineer who is responsible for knowledge definition and maintenance; second the architect who elaborates the conceptual de-sign. The tool for the knowledge engineer is based on graph technology, it is specified using PROGRES and the UPGRADE framework. The tools for the architect are integrated to the in-dustrial CAD tool ArchiCAD. Consistency between knowledge and conceptual design is en-sured by the constraint checker, another extension to ArchiCAD.
Research collaborations provide opportunities for both practitioners and researchers: practitioners need solutions for difficult business challenges and researchers are looking for hard problems to solve and publish. Nevertheless, research collaborations carry the risk that practitioners focus on quick solutions too much and that researchers tackle theoretical problems, resulting in products which do not fulfill the project requirements.
In this paper we introduce an approach extending the ideas of agile and lean software development. It helps practitioners and researchers keep track of their common research collaboration goal: a scientifically enriched software product which fulfills the needs of the practitioner’s business model.
This approach gives first-class status to application-oriented metrics that measure progress and success of a research collaboration continuously. Those metrics are derived from the collaboration requirements and help to focus on a commonly defined goal.
An appropriate tool set evaluates and visualizes those metrics with minimal effort, and all participants will be pushed to focus on their tasks with appropriate effort. Thus project status, challenges and progress are transparent to all research collaboration members at any time.
Multi-attribute relation extraction (MARE): simplifying the application of relation extraction
(2021)
Natural language understanding’s relation extraction makes innovative and encouraging novel business concepts possible and facilitates new digitilized decision-making processes. Current approaches allow the extraction of relations with a fixed number of entities as attributes. Extracting relations with an arbitrary amount of attributes requires complex systems and costly relation-trigger annotations to assist these systems. We introduce multi-attribute relation extraction (MARE) as an assumption-less problem formulation with two approaches, facilitating an explicit mapping from business use cases to the data annotations. Avoiding elaborated annotation constraints simplifies the application of relation extraction approaches. The evaluation compares our models to current state-of-the-art event extraction and binary relation extraction methods. Our approaches show improvement compared to these on the extraction of general multi-attribute relations.
This paper presents NLP Lean Programming
framework (NLPf), a new framework
for creating custom natural language processing
(NLP) models and pipelines by utilizing
common software development build systems.
This approach allows developers to train and
integrate domain-specific NLP pipelines into
their applications seamlessly. Additionally,
NLPf provides an annotation tool which improves
the annotation process significantly by
providing a well-designed GUI and sophisticated
way of using input devices. Due to
NLPf’s properties developers and domain experts
are able to build domain-specific NLP
applications more efficiently. NLPf is Opensource
software and available at https://
gitlab.com/schrieveslaach/NLPf.
In: Forum Bauinformatik 2005 : junge Wissenschaftler forschen / [Lehrstuhl Bauinformatik, Brandenburgische Technische Universität Cottbus. Frank Schley ... (Hrsg.)]. - Cottbus : Techn. Universität 2005. S. 1-10 ISBN 3-934934-11-0
Mittels eines operationalen Ansatzes zur Semantikdefinition wird am Bei-spiel des konzeptuellen Gebäudeentwurfs ein Regelsystem formalisiert. Dazu werdenzwei Teile, zum einen das Regelwissen, zum anderen ein konzeptueller Entwurfsplan zunächst informell eingeführt und dann formal beschrieben. Darauf aufbauend wird die Grundlage für eine Konsistenzprüfung des konzeptuellen Entwurfs gegen das Regel-wissen formal angeben