Publikationen des InIT der TU IlmenauPublikationen des InIT der TU Ilmenau
Anzahl der Treffer: 3687
Erstellt: Sun, 30 Jun 2024 20:48:53 +0200 in 0.0824 sec


Suleimanov, Aidar;
Efficient approaches for HOSVD and coupled HOSVD using randomized sampling with application to biomedical signal processing. - Ilmenau. - 50 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Higher-Order Singular Value Decomposition (HOSVD) und Canonical Polyadic Decomposition (CPD) sind Erweiterungen der Singular Value Decomposition (SVD) für mehrdimensionale Daten. Diese Methoden finden Anwendung bei verschiedenen medizinischen Problemen, z.B. bei der Analyse der Reaktion des menschlichen Gehirns auf Stimulationen. Die Methoden haben jedoch auch eine beträchtliche Rechenkomplexität, die in Verbindung mit der großen Dimensionalität real gemessener Daten zu einer beträchtlichen Verarbeitungszeit führt. Es gibt jedoch Möglichkeiten, die Berechnung von HOSVD und CPD zu beschleunigen. In dieser Arbeit untersuchen und erforschen wir einen dieser möglichen Ansätze, die Zufallsauswahl. Die Hauptidee dieser Methode besteht darin, einige Teile der Daten vor den zeitaufwändigsten Schritten der HOSVD- und CPD-Algorithmen zu verwerfen. Die Hauptvorteile dieser Methode sind die Einfachheit und die Möglichkeit, die Menge der verworfenen Daten und die Stichprobenstrategie manuell zu konfigurieren, wodurch ein flexibles Gleichgewicht zwischen Genauigkeit und Zeit erreicht werden kann. Wir schlagen zwei Sampling-Varianten vor und implementieren diese Methoden in verschiedene Tensor-Zerlegungen, z.B. HOSVD, SECSI usw. Die erste Variante ist das Uniform Sampling, das eine gleichmäßige Wahrscheinlichkeitsverteilung zur Komprimierung der Daten verwendet. In dieser Arbeit gehen wir davon aus, dass nur ein kleiner Teil der real gemessenen Daten einen Wert für die weitere Analyse hat. Wir gehen auch davon aus, dass diese Bedeutung bewertet werden kann. Unter Berücksichtigung dieser Tatsache ist die zweite vorgeschlagene Methode das euklidische Längensampling, das die zu verarbeitenden Daten nach ihrer Wichtigkeit auswählt. Um die Leistung der vorgeschlagenen Methoden zu bewerten, wurden mehrere Simulationen mit synthetischen Daten durchgeführt. Schließlich testen wir diese Algorithmen an real gemessenen biomedizinischen EEG-MEG-Daten. Die Ergebnisse der modifizierten Algorithmen und ihre Analyse werden im Vergleich mit den ursprünglichen Methoden.



Ahuja, Bhavya;
Improving green cloud computing by applying metaheuristics. - Ilmenau. - 115 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Cloud Computing ist eine effiziente Methode zur Verwaltung von Ressourcen und zur Bereitstellung von Diensten in einer mobilen Umgebung. Es ist jedoch wichtig, energieeffiziente Methoden für den Betrieb eines Systems zu wählen, um während der gesamten Lebensdauer des Geräts zur Nachhaltigkeit beizutragen. An dieser Stelle entsteht der Bedarf an Green Cloud Computing. Green Cloud Computing ist eine Technologie zur energieeffizienten Nutzung einer Cloud-Computing-Umgebung. Da beim Cloud Computing die Virtualisierungstechnologie eingesetzt wird, um ein nahtloses Arbeiten zu gewährleisten, wird ein Übermaß an Energie verschwendet, wenn diese virtuellen Maschinen (VMs) in einer überlasteten und unterlasteten Umgebung arbeiten. Daher müssen die VMs auf eine physische Maschine (PM) migriert werden, die für diese Operationen besser geeignet ist. Beim Verschieben von VMs von einer PM zu einer anderen geht viel Energie verloren. Wenn diese Migrationen nicht effizient durchgeführt werden, führt dies zu noch mehr Migrationen und damit zu unnötiger Energieverschwendung. Das Ziel dieser Forschungsarbeit "Verbesserung des Green Cloud Computing durch Anwendung von Metaheuristiken" ist die Schaffung einer energieeffizienten VM-Verwaltungsumgebung. In dieser Arbeit wird ein Fuzzy Inference System implementiert, um Benutzerinformationen zu sammeln und physische und virtuelle Maschinen nach Bedarf zu planen, um die Erfüllung von Dienstgüte (QoS) und Dienstvereinbarungen (SLA) zu gewährleisten. Darüber hinaus wird ein neuartiger Optimierungsalgorithmus, der Komodo Mlipir Algorithmus (KMA), eingesetzt, um virtuelle Maschinen durch VM-Migration und -Konsolidierung zu regulieren. Die implementierte Arbeit wird mit einer bestehenden Methode verglichen, die einen Virtual Machine Scheduling-Modified Clonal Search Algorithm (VMS-MCSA) verwendet, der einen zufälligen Mutationsoperator verwendet, um die VMs mit dem erforderlichen Planungsintervall umzuplanen, um die Dynamik der Arbeitslast innerhalb der minimalen VM-Migrationen zu verwalten. Mit der Anpassung des Komodo-Mlipir-Algorithmus ist diese Forschungsarbeit in der Lage, eine geringere Migrationszeit zwischen VMs aufgrund eines höheren Optimierungsniveaus zu erreichen, und erreicht damit, eine erhebliche Menge an Energie im Prozess der Konsolidierung als Ergebnis der optimierten Migration zu sparen.



Bhalla, Aditi;
Graph machine learning techniques for routing in wireless V2X communication. - Ilmenau. - 70 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Die Vehicle-to-Everything (V2X)-Kommunikation ist ein wichtiger Bestandteil intelligenter Verkehrssysteme (ITS), die einen integrierten Ansatz für den Austausch relevanter Informationen für eine Vielzahl von Anwendungen wie aktive Verkehrssicherheit, Infotainment und Verkehrsmanagement bieten. Der zuverlässige und rechtzeitige Austausch von Informationen zwischen Fahrzeugknoten ist eine entscheidende Herausforderung bei V2X. In diesem Zusammenhang sind effiziente V2X-Routing-Protokolle unerlässlich, um Zuverlässigkeit und Sicherheit zu gewährleisten und gleichzeitig die allgemeine Dienstqualität (QoS) zu verbessern. Ad-hoc-Netze für Fahrzeuge (VANETs) sind aufgrund der hohen Mobilität der Fahrzeugknoten, der unsteten Konnektivität, der schnellen Änderungen der Netztopologie und der unbegrenzten Größe des Netzes starken Schwankungen unterworfen, die die Routing-Leistung erheblich beeinträchtigen können und häufige Aktualisierungen der Routing-Entscheidungen erforderlich machen können. Herkömmliche Routing-Protokolle sind nicht in der Lage, mit den komplexen Merkmalen umzugehen, die in solchen dynamischen Netzen auftreten. In diesem Zusammenhang haben sich Techniken des maschinellen Lernens in letzter Zeit als leistungsfähige Werkzeuge für das Lernen komplexer Aufgaben erwiesen. Reinforcement Learning-Techniken, insbesondere Deep Reinforcement Learning (DRL), können diese Herausforderung meistern, indem sie mit der V2X-Umgebung in Echtzeit interagieren. Aufgrund der graphenstrukturierten VANET-Topologie können traditionelle DRL-Modelle, die für gitterartige Daten entwickelt wurden, jedoch nicht verallgemeinert werden. Daher wird in dieser Arbeit die Leistung einer GNN-basierten DRL-Routing-Strategie über verschiedene V2X-Netzwerktopologien mit Schwerpunkt auf der Optimierung von Datenrate und Latenzzeit bewertet. Darüber hinaus wird die Routing-Leistung des vorgeschlagenen Modells mit einem idealen Routing-Protokoll für den kürzesten Weg verglichen, um die Wirksamkeit der Strategie zu demonstrieren.



Han, Xiao;
Energy efficient routing in software-defined wireless sensor networks (SDWSN). - Ilmenau. - 65 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Als grundlegender Bestandteil des Internet of Things (IoT)-Ökosystems haben WSN in letzter Zeit viel Aufmerksamkeit erhalten. Aufgrund der Einschränkungen des Sensors selbst ist die Anwendung von WSN jedoch begrenzt. Als neue Netzwerktechnologie und Netzwerkparadigma hat SDN in den letzten Jahren einen großen Einfluss auf die Leistungsverbesserung von Netzwerkstrukturen gehabt. Dies beweist, dass es ein Anwendungspotenzial im Bereich der WSNs hat. Es gibt zwar einige Studien über SDWSN, aber kein allgemeines Schema. Derzeit ist eines der Hauptprobleme von SDWSN die Energieeffizienz. In dieser Arbeit wird ein durch den K-Means-Algorithmus und den DFS-Algorithmus modifiziertes SDWSN vorgeschlagen, das die Energieeffizienz umfassend verbessert. Im Vergleich zu anderen Algorithmen werden die Vor- und Nachteile aufgezeigt.



Weise, Konstantin; Numssen, Ole; Kalloch, Benjamin; Zier, Anna Leah; Thielscher, Axel; Haueisen, Jens; Hartwigsen, Gesa; Knösche, Thomas R.
Precise motor mapping with transcranial magnetic stimulation. - In: Nature protocols, ISSN 1750-2799, Bd. 18 (2023), S. 293-318

We describe a routine to precisely localize cortical muscle representations within the primary motor cortex with transcranial magnetic stimulation (TMS) based on the functional relation between induced electric fields at the cortical level and peripheral muscle activation (motor-evoked potentials; MEPs). Besides providing insights into structure-function relationships, this routine lays the foundation for TMS dosing metrics based on subject-specific cortical electric field thresholds. MEPs for different coil positions and orientations are combined with electric field modeling, exploiting the causal nature of neuronal activation to pinpoint the cortical origin of the MEPs. This involves constructing an individual head model using magnetic resonance imaging, recording MEPs via electromyography during TMS and computing the induced electric fields with numerical modeling. The cortical muscle representations are determined by relating the TMS-induced electric fields to the MEP amplitudes. Subsequently, the coil position to optimally stimulate the origin of the identified cortical MEP can be determined by numerical modeling. The protocol requires 2 h of manual preparation, 10 h for the automated head model construction, one TMS session lasting 2 h, 12 h of computational postprocessing and an optional second TMS session lasting 30 min. A basic level of computer science expertise and standard TMS neuronavigation equipment suffices to perform the protocol.



https://doi.org/10.1038/s41596-022-00776-6
Altinel, Berk; Asghar, Ehtisham; Berlt, Philipp; Buddappagari, Sreehari; Bornkessel, Christian; Singh, Jasmeet; Hein, Matthias
Practical aspects of automotive measurements and virtual-drive testing. - In: Modern automotive antenna measurements, (2022), S. 221-246

Müller, Jens; Hein, Matthias; Supreeti, Shraddha; Stehr, Uwe
Compact, high-performance and highly integrated faint pulse source at 850 nm :
i-FPS - Kompakte, performante und hoch-integrierte Faint Pulse Source bei 850 nm; Teilvorhaben: E/O-Hardware-Plattform für Faint Pulse Sources : Abschlussbericht FKZ: 50 YH 2121 : Laufzeit: 01.08.2021-31.05.2022 (Phase 1). - Ilmenau : Technische Universität Ilmenau, [Institut für Mikro- und Nanotechnologien MacroNano]. - 1 Online-Ressource (12 Seiten, 1,10 MB)Unterschiede zwischen dem gedruckten Dokument und der elektronischen Ressource können nicht ausgeschlossen werden

https://edocs.tib.eu/files/e01fb24/187793934X.pdf
Sokal, Bruno;
Tensor-based signal processing with applications to MIMO-ODFM systems and intelligent reflecting surfaces. - Fortaleza, 2022. - 1 Online-Ressource (124 Seiten)
Universidade Federal do Ceará, Dissertation 2022

Der Einsatz von Tensor-Algebra-Techniken in der Signalverarbeitung hat in den letzten zwei Jahrzehnten zugenommen. Anwendungen wie Bildverarbeitung, biomedizinische Signalverarbeitung, radar, maschinelles Lernen, deep Learning und Kommunikation im Allgemeinen verwenden weitgehend tensorbasierte Verarbeitungstechniken zur Wiederherstellung, Schätzung und Klassifizierung von Signalen. Einer der Hauptgründe für den Einsatz der Tensorsignalverarbeitung ist die Ausnutzung der mehrdimensionalen Struktur von Signalen, wobei die Einzigartigkeitseigenschaften der Tensor-Zerlegung profitieren. Bei der drahtlosen Kommunikation beispielsweise können die Signale mehrere "Dimensionen" haben, wie Raum, Zeit, Frequenz, Polarisation, usw. Diese Arbeit ist in zwei Teile gegliedert. Im ersten Teil betrachten wir die Anwendung von Tensor-basierten Algorithmen für multiple-input multiple-output (MIMO) orthogonal frequency division multiplexing (OFDM) Systeme unter Berücksichtigung von Vorhandensein von Phasenrauschenstörungen. In diesem Teil schlagen wir einen zweistufigen tensorbasierten Empfänger für eine gemeinsame Kanal-, Phasenrausch- und Datenschätzung in MIMO-OFDM-Systemen vor. In der ersten Stufe zeigen wir, dass das empfangene Signal auf den Pilotunterträgern als PARAFAC-Tensor dritter Ordnung modelliert werden kann. Auf der Grundlage dieses Modells werden zwei Algorithmen für die Schätzung der Phasen- und Kanalrauschen in den Pilotton vorgeschlagen. In der zweiten Stufe werden die übertragenen Daten geschätzt. Zu diesem Zweck schlagen wir einen Zero Forcing (ZF)-Empfänger vor, der sich die Tensorstruktur des empfangenen Signals auf den Datenträgern zunutze macht, indem er den vorgeschlagenen selektiven Kronecker-Produkt-Operators (SKP) kapitalisiert. Die Simulationsergebnisse zeigen, dass der vorgeschlagene Empfänger sowohl bei der Symbolfehlerrate als auch beim normalisierten mittleren quadratischen Fehler des geschätzten Kanal- und Phasenrauschmatrizen eine bessere Leistung im Vergleich zum Stand der Technik erzielt. Der zweite Teil dieser Arbeit befasst sich mit der Anwendung der Tensormodellierung zur Reduzierung des Kontrollsignalisierungsoverhead in zukünftigen drahtlosen Systemen, die durch intelligent reconfigurable surfaces (IRSs) unterstützt werden. Zu diesem Zweck schlagen wir eine Annäherung an die nahezu optimalen IRS-Phasenverschiebungen vor, die sonst einen prohibitiv hohen Kommunikationsoverhead auf den BS-IRS-Kontrollverbindungen verursachen würde. Die Hauptidee besteht darin, den optimalen Phasenvektor des IRSs, der Hunderte oder Tausende von Elementen haben kann, durch ein Tensormodell mit niedrigem Rang darzustellen. Dies wird erreicht durch Faktorisierung einer tensorisierten Version des IRS-Phasenverschiebungsvektors, wobei jede Komponente als Kronecker-Produkt einer vordefinierten Anzahl von Faktoren mit kleinerer Größe modelliert wird, die durch Tensor Zerlegungsalgorithmen erhaltet werden können. Wir zeigen, dass die vorgeschlagenen Low-Rank-Modelle die Rückkopplungsanforderungen für die BS-IRS-Kontrollverbindungen drastisch reduzieren. Die Simulationsergebnisse zeigen, dass die vorgeschlagene Methode besonders in Szenarien mit einer starken Sichtverbindung attraktiv sind. In diesem Fall wird fast die gleiche spektrale Effizienz erreicht wie in den Fällen mit nahezu optimalen Phasenverschiebungen, jedoch mit einem drastisch reduzierten Kommunikations-Overhead.



https://doi.org/10.22032/dbt.56127
Chege, Joseph K.; Grasis, Mikus J.; Manina, Alla; Yeredor, Arie; Haardt, Martin
Efficient probability mass function estimation from partially observed data. - In: Conference record of the Fifty-Sixth Asilomar Conference on Signals, Systems & Computers, (2022), S. 256-262

Estimating the joint probability mass function (PMF) of a set of random variables from partially observed data is a crucial part of statistical learning and data analysis, with applications in areas such as recommender systems and data classification. Recently, it has been proposed to estimate the joint PMF based on the maximum likelihood (ML) of the data, fitted to a low-rank canonical polyadic decomposition (CPD) model of the joint PMF. To this end, a hybrid alternating-directions expectation-maximization (AD-EM) algorithm was proposed to solve the ML optimization problem, consisting of computationally expensive AD iterations followed by an EM refinement stage. It is well known that the convergence rate of EM decreases as the fraction of missing data increases. In this paper, we address the slow convergence of the EM algorithm. By adapting the squared iterative methods (SQUAREM) acceleration scheme to the context of PMF estimation, we propose the SQUAREM-PMF algorithm to speed up the convergence of the EM algorithm. Moreover, we demonstrate that running the computationally cheaper EM algorithm alone after an appropriate initialization is sufficient. Numerical results on both synthetic and real data in the context of movie recommendation show that our algorithm outperforms state-of-the-art PMF estimation algorithms.



https://doi.org/10.1109/IEEECONF56349.2022.10052047
Römer, Florian; Kirchhof, Jan; Krieg, Fabian; Pérez, Eduardo
Compressed Sensing: from big data to relevant data. - In: Handbook of Nondestructive Evaluation 4.0, (2022), S. 329-352

Though the ever-increasing availability of digital data in the context of NDE 4.0 is mostly considered a blessing, it can turn to a curse quite rapidly: managing large amounts of data puts a burden on the sensor devices in terms of sampling and transmission, the networks, as well as the server infrastructure in terms of storing, maintaining, and accessing the data. Yet, NDE data can be highly redundant so the storage of massive amounts of data may indeed be wasteful. This is the main reason why focusing on relevant data as early as possible in the NDE process is highly advocated in the context of NDE 4.0. This chapter introduces Compressed Sensing as a potential approach to put this vision to practice. Compressed Sensing theory has shown that sampling signals with sampling rates that are significantly below the Shannon-Nyquist rate is possible without loss of information, provided that prior knowledge about the signals to be acquired is available. In fact, we may sample as low as the actual information rate if our prior knowledge is sufficiently accurate. In the NDE 4.0 context, prior knowledge can stem from the known inspection task and geometry but it can also include previous recordings of the same piece (such as in Structural Health Monitoring), information stored in the digital product memory along the products’ life cycle, or predictions generated through the products’ digital twins. In addition to data reduction, reconstruction algorithms developed in the Compressed Sensing community can be applied for enhanced processing of NDE data, providing added value in terms of accuracy or reliability. The chapter introduces Compressed Sensing basics and gives some concrete examples of its application in the NDE 4.0 context, in particular for ultrasound.