Publikationen des InIT der TU IlmenauPublikationen des InIT der TU Ilmenau
Anzahl der Treffer: 3687
Erstellt: Sun, 30 Jun 2024 20:48:53 +0200 in 0.0866 sec


Kirchhof, Jan; Semper, Sebastian; Wagner, Christoph; Pérez, Eduardo; Römer, Florian; Del Galdo, Giovanni
Frequency subsampling of ultrasound nondestructive measurements: acquisition, reconstruction, and performance. - In: IEEE transactions on ultrasonics, ferroelectrics, and frequency control, ISSN 1525-8955, Bd. 68 (2021), 10, S. 3174-3191

In ultrasound nondestructive testing (NDT), a widespread approach is to take synthetic aperture measurements from the surface of a specimen to detect and locate defects within it. Based on these measurements, imaging is usually performed using the synthetic aperture focusing technique (SAFT). However, SAFT is suboptimal in terms of resolution and requires oversampling in the time domain to obtain a fine grid for the delay-and-sum (DAS). On the other hand, parametric reconstruction algorithms give better resolution, but their usage for imaging becomes computationally expensive due to the size of the parameter space and a large amount of measurement data in realistic 3-D scenarios when using oversampling. In the literature, the remedies to this are twofold. First, the amount of measurement data can be reduced using state-of-the-art sub-Nyquist sampling approaches to measure Fourier coefficients instead of time-domain samples. Second, parametric reconstruction algorithms mostly rely on matrix-vector operations that can be implemented efficiently by exploiting the underlying structure of the model. In this article, we propose and compare different strategies to choose the Fourier coefficients to be measured. Their asymptotic performance is compared by numerically evaluating the Cramér-Rao bound (CRB) for the localizability of the defect coordinates. These subsampling strategies are then combined with an l1-minimization scheme to compute 3-D reconstructions from the low-rate measurements. Compared to conventional DAS, this allows us to formulate a fully physically motivated forward model matrix. To enable this, the projection operations of the forward model matrix are implemented matrix-free by exploiting the underlying two-level Toeplitz structure. Finally, we show that high-resolution reconstructions from as low as a single Fourier coefficient per A-scan are possible based on simulated data and measurements from a steel specimen.



https://doi.org/10.1109/TUFFC.2021.3085007
Shahabi Ghahfarokhi, Samar;
Investigation of broker overlay systems for publish-subscribe messaging paradigm. - Ilmenau. - 100 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Diese Arbeit untersucht die 'information centric networking' (ICN) Architekturen, die für das zukünftige Internet geeignet sind, mit Schwerpunkt auf netzwerkbasierten Broker-Overlay-Architekturen. Die bestehenden ICN-Architekturen auf dem neuesten Stand der Technik werden überprüft und verglichen. Das Publish-Subscribe-basierte Broker-Overlay-System für das Internet der Dinge (IoT), das für das Information Centric Networking geeignet ist, wird mit einem Cluster von Brokern für Lastausgleich und Hochverfügbarkeitsdesigns entworfen. Das neuartige QoS-basierte Lastausgleichsschema wird für MQTT-Broker entworfen und für bestimmte Szenarien unter Verwendung einer virtuellen Mininet-Netzwerkinstanz bewertet. Darüber hinaus werden ein gemeinsames Abonnementmodell und ein Multicast-basierter Ansatz für Broker implementiert und für die gegebenen Szenarien evaluiert. Verschiedene Netzwerkparameter wie Bandbreite, Verzögerung, Nutzlastgrößen werden für das Benchmarking der Broker-Lastverteiler verwendet. Die Arbeit schließt mit der Feststellung, dass sich das Shared-Subscription-Modell und die Multicast-Ansätze in Bezug auf die Evaluierung für die gegebenen Szenarien als sehr effektiv erwiesen haben und auf sehr große Anbieter und Teilnehmer erweitert werden können.



Treichel, Tim;
Evaluation of open source hardware for rapid prototyping of advanced ultrasonic testing methods. - Ilmenau. - 80 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Das Un0rick Projekt ist eine Open Source Hardware für Ultraschallprüfung. Im Vergleich zu gängigen proprietären Geräten bietet es eine kostengünstige Lösung, welche vollen Zugriff auf Rohdaten und vollständige Kontrolle bis hin zur Firmware bietet. Ziel dieser Arbeit ist es die Hardware auf Erweiterungsmöglichkeiten zu testen, um komplexere Ultraschallprüfverfahren zu ermöglichen. Dies geschieht an einer konkreten Beispielimplementierung von codierten Signalen. Außerdem soll diese Arbeit als zusätzliche Dokumentation für das Un0rick Projekt dienen, da die offizielle Dokumentation teilweise inkonsistent ist. Im ersten Teil der Arbeit werden einige Grundlagen der Ultraschallprüfung behandelt. Danach wird die Arbeitsweise des Un0rick Boards erklärt, wobei ein Fokus auf die Signal Generation, Messung und Verarbeitung gelegt wird. Dies enthält einen Einblick in die Arbeitsweise der Standard Firmware. Im Rahmen dieser Arbeit wurde eigene Software für das Un0rick Board entwickelt. Die entwickelte Software enthält eine Python Bibliothek, welche die Kommunikation mit dem Un0rick Board ermöglicht, sowie einen Web-Server, welcher live aktualisierende Messungen im Web-Browser darstellen kann. Im letzten Teil der Arbeit wurde eine eigene Firmware entwickelt, welche es ermöglicht Messungen mit binär codierten Signalen durchzuführen. Diese Arbeit kommt zu dem Schluss, dass das Un0rick Board eine gut geeignete Plattform für kostengünstige Entwicklungs- und Bildungszwecke ist. Es ist möglich eigene komplexere Prüfverfahren zu implementieren, wenn auch dies mit eigener Arbeit verbunden ist. Dies wird vor allem durch die Tatsache ermöglicht, dass die ganze Dokumentation der Hardware frei zugänglich ist.



Galimullin, Bulat;
Evaluation of cell load of the LTE network based on control information decoding. - Ilmenau. - 57 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Die Zellenlastbewertung ist eines der Werkzeuge, die für die Entwicklung von Methoden zur Erhöhung der Dienstgüte (QoS) in Mobilfunknetzen verwendet werden. Beispielsweise kann die Analyse der mobilen Datennutzung zur Netzoptimierung und -verwaltung im Hinblick auf Funkressourcen verwendet werden. Bestehende Bewertungsmethoden, wie "Drive-Tests" oder passive Bewertungen basierend auf der Analyse physischer Kanalindikatoren, sind entweder unzuverlässig, ungenau oder unbequem. In dieser Arbeit wird eine Methode zur Bewertung der Zellenlast vorgestellt, die auf der Dekodierung und Analyse der Steuerkanäle basiert. Das Verfahren kann die Ressourcenzuweisungen und den Durchsatz in einer öffentlichen Mobilfunkzelle zuverlässig überwachen. Ein echtes LTE-Signal, das vom eNodeB mit Software Defined Radio aufgezeichnet wurde, wurde analysiert. Die Hauptindikatoren der Zelle wurden bestimmt, darunter die Effizienz der Nutzung von Ressourcenblöcken, die Anzahl der aktiven Benutzer und der Durchsatz der Zelle. Auch die Genauigkeit des Algorithmus wurde in dieser Arbeit evaluiert.



Soleymani, Dariush M.; Ravichandran, Lavanya; Gholamian, Mohammad Reza; Del Galdo, Giovanni; Harounabadi, Mehdi
Energy-efficient autonomous resource selection for power-saving users in NR V2X. - In: 2021 IEEE 32nd Annual International Symposium on Personal, Indoor and Mobile Radio Communications (PIMRC), (2021), S. 972-978

Energy efficiency has recently drawn significant attention in diverse applications, such as vehicle-to-everything (V2X) communications. This paper investigates a joint energy efficiency and sum-rate maximization problem in autonomous resource selection in the 5G new radio (NR) vehicular communication while catering for reliability and latency requirements. An autonomous resource allocation problem is formulated as a ratio of sum-rate to energy consumption, where the objective is to maximize the total energy efficiency of power-saving users subject to the reliability and latency requirements. The energy efficiency problem is a mixed-integer programming optimization problem that is computationally complex when the number of users increases. Therefore, a heuristic algorithm, density of traffic-based resource allocation (DeTRA), is proposed to solve the problem. The traffic density per traffic type is considered a metric to split the radio resources and trigger an appropriate resource selection strategy. The simulation results show that the proposed algorithm outperforms the existing schemes in terms of energy efficiency.



https://doi.org/10.1109/PIMRC50174.2021.9569365
Dupleich, Diego; Ebert, Alexander; Müller, Robert; Del Galdo, Giovanni; Thomä, Reiner
Verification of dual-polarized ultra-wideband channel sounder for THz applications. - In: 2021 IEEE 32nd Annual International Symposium on Personal, Indoor and Mobile Radio Communications (PIMRC), (2021), insges. 5 S.

The lower THz bands are foreseen as candidates to achieve the data-rates demanded in the sixth generation (6G) of wireless communications. Hence, multiple measurements for characterization of propagation at these frequencies in different scenarios are being conducted all around the world. This also impulses activities on standardization of measurement equipment and methodologies to define common practices and make measurements from different actors comparable. Therefore, in the present paper we investigate the accuracy of a dual-polarized ultra-wideband channel sounder in the time, angular, and polarization domains by means of a verification methodology based on interferometry.



https://doi.org/10.1109/PIMRC50174.2021.9569491
Hampel, Jakob;
Zeitkorrelierte Einzelphotonenzählung zur Zeitbereichscharakterisierung von Hochgeschwindigkeitslichtquellen mittels konfigurierbarer Logikbausteine. - Ilmenau. - 89 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Zeitkorrelierte Einzelphotonenzählung basiert auf der Tatsache, dass die Impulsantwort einer Lichtquelle der Wahrscheinlichkeitsdichte der Auslösezeitpunkte der einzelnen Photonen entspricht. Werden die Auslösezeitpunkte mit einer sehr genauen Messeinrichtung aufgenommen, kann aus diesen Zeitpunkten ein Histogramm erstellt werden, welches die Impulsantwort der Lichtquelle wiedergibt. Die Idee dieses Verfahrens entstand bereits vor vielen Jahren, war jedoch aufgrund der Notwendigkeit eines ausreichend zuverlässigen und präzisen Einzelphotonendetektors lange Zeit auf relativ sperrige Hardware mit großem Leistungsbedarf beschränkt. Mit dem Aufkommen kommerziell erhältlicher halbleiterbasierter Einzelphotonendetektoren in den letzten Jahren sowie den stets wachsenden Ressourcen moderner konfigurierbarer Logikbausteine kann dieses Verfahren nun äußerst kompakt, kostengünstig und leistungssparend umgesetzt werden. In der vorliegenden Arbeit entstand die Hardwarebeschreibung sowie die Auslesesoftware zur Umsetzung der zeitkorrelierten Einzelphotonenzählung durch einen konfigurierbaren Logikbaustein. Die in dem Projekt parallel zu dieser Arbeit entstandenen, analogen Komponenten vervollständigen ein kostengünstiges Messinstrument, welches Lichtimpulse mit einer Auflösung von 20 ps genau messen kann, dabei jedoch in ein 100 mm x 25 mm großes Rohr passt und weniger als 2,5 W Leistungsversorgung benötigt.



Hoch, Matthias Wolfgang;
Validierung der Hardware zur Ansteuerung eines DC-Motors in einem Getriebeaktuator mit Schwerpunkt der Fehlerdiagnose. - Ilmenau. - 64 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Diese Bachelorarbeit befasst sich mit der hardwareseitigen Validierung der Funktionsweise eines Gangstellermoduls des Technologieunternehmens Valeo. Die Validierung soll anhand des Automotive-SPICE-Modells durchgeführt werden. Weiterhin wird die intelligente Halbbrücke, die Endstufen der Motoransteuerung, charakterisiert und besonders auf die Fehlererkennungsfunktion eingegangen. Die Grundlagen des Gangstellermoduls werden dem Leser präsentiert. Dies umfasst die Vorstellung des Produktes, des zugrundeliegenden Schaltplanes sowie der wichtigsten Bauelemente in der Ansteuerung des verwendeten DC-Motors und den DC-Motor selbst. Danach folgt die Charakterisierung der Halbbrücke. Hierbei werden Eigenschaften sowohl theoretisch als auch experimentell erläutert. Die Validierung ist in einem komplexen System nicht ohne Einbezug der Software möglich. So wird zunächst auf die Testvoraussetzungen und den Messaufbau, bestehend aus Prüfstand und zugehöriger Steuerungs- und Auswertungssoftware, eingegangen. Anschließend wird kurz das Konzept des Automotive-SPICE mit Schwerpunkt auf den Bereichen SWE.6 (Software-Qualifizierungstest) und SYS.4 (Systemintegrations- und Integrationstestprozess) vorgestellt. Ein besonderes Augenmerk liegt hier auf den Tests des Technical-Safety-Concepts (TSaC) unter SYS.4, wo verschiedene Kurzschlusstests abgeprüft werden. Eine ausschließlich hierfür entwickelte externe Hardware am Getriebeaktuator wird aufgebaut und in Betrieb genommen. Schließlich werden zum Schluss ein Ausblick auf die Anwendung und den Nutzen dieser Bachelorarbeit im Betrieb, eine Zusammenfassung der erbrachten Leistungen sowie die Auswertung, ob eine Bestätigung der Validierung der Funktion erzielt wurde, gegeben.



Stängle, Tobias;
Modellierung des durch transkranielle Magnetstimulation erzeugten motorisch evozierten Potentials. - Ilmenau. - 108 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Aufgabe der vorliegenden Arbeit war es, ein Modell des neuromuskulären Systems zu entwickeln und den Optimierungsalgorithmen zu finden, welcher die geringste Differenz zwischen Referenz und Simulationsergebnis liefert. Hierfür wurden ausgewählte Modellparameter mit verschieden Optimierungsalgorithmen optimiert. Aufbauend auf einem neuronalen Massenmodell wurden zusätzliche biologische Eigenschaften des neuromuskulären Systems wie Adaptation und synaptische Verbindungen, sowie neuronale Elemente wie Renshaw-Zelle und Alpha-Motoneuron, berücksichtigt. Eine breite Auswahl an Optimierungsalgorithmen wurde mit den aus dem Modell generierten Werten getestet. Mit dem Broyden-Fletcher-Goldfarb-Shannon (BFGS) Algorithmus und der Partikelschwarmoptimierung konnten eine relative Differenz zwischen Simulationsergebnis und Referenz von weniger als 1 % erreicht werden. Additives Rauschen erhöhte den Zielfunktionswert auf bis zu 24 % für den BFGS Algorithmus und die Partikelschwarmoptimierung. Bei stärkerem Rauschen verschlechterte sich die durchschnittliche Abweichung vom den wahren Werten aller Parameter von 9.8 % auf 12.4 % für dem BFGS Algorithmus und von 4.9 % auf 7.1 % für die Partikelschwarmoptimierung.



Minaev, Sergey;
Entwicklung und Implementierung eines künstlichen neuronalen Netzes mit niedriger Verarbeitungsgenauigkeit zur Zustandserkennung von Gleichstrommotoren. - Ilmenau. - 75 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Für viele Unternehmen sind heute minimale Kosten für die Herstellung und Wartung von Geräten und Produkten das Hauptziel. Hierzu wird frühzeitig eine qualitativ hochwertige Prüfung der Produkte durchgeführt, da ansonsten die Beseitigung des Mangels der Produkte zu schwerwiegenden finanziellen und technischen Problemen führen könnte. Dafür werden spezielle Methoden und Algorithmen entwickelt. Heute ist maschinelles Lernen weit verbreitet und leistet in vielen Bereichen umfangreiche Hilfestellung. Zunehmend wurden künstliche neuronale Netze in die Produktion und Produktionsüberwachung eingeführt, die es ermöglichen, komplexe Berechnungen und Prognosen durchzuführen sowie Geräte zu prüfen. Diese Masterarbeit widmet sich der Zustandsbestimmung von Elektromotoren mit Hilfe eines künstlichen neuronalen Netzes. Um den Zustand der Motoren zu bestimmen, werden Labormessungen mit einem Körperschallsensor durchgeführt. Dieser Sensor ist ein analoges Gerät und gibt analoge Signalergebnisse aus. Um das neuronale Netz jedoch auf digitalen Geräten anwenden zu können, müssen die erhaltenen Messwerte von einem analogen Signal in ein digitales umgewandelt werden. Dabei ist es erforderlich, dass die Messgenauigkeit und die Effizienz des neuronalen Netzes, die in der Genauigkeit der Zustandsbestimmung von Elektromotoren besteht, bei der Signalumwandlung nicht verloren geht. Die ist ein Kernforschungsgegenstand dieser Arbeit. Dabei soll ein neuronales Netz, das Sensordaten mit geringer Verarbeitungsgenauigkeit und deren Ergebnisse verarbeitet, um Rückschlüsse auf die Anwendbarkeit dieses Netzes auf digitalen Geräten zu ziehen, implementiert und mit einer Standardimplementierung eines künstlichen neuronalen Netzes verglichen werden.