Publikationen des InIT der TU IlmenauPublikationen des InIT der TU Ilmenau
Anzahl der Treffer: 3687
Erstellt: Sun, 30 Jun 2024 20:48:53 +0200 in 0.0948 sec


Häfner, Stephan; Dürr, André; Waldschmidt, Christian; Thomä, Reiner
A novel covariance model for MIMO sensing systems and its identification from measurements. - In: Signal processing, Bd. 197 (2022), 108542

A novel model for the covariance matrix of sampled observations by multiple-input-multiple-output (MIMO) sensing systems with parallel receiver channels will be presented. The model is of shifted Kronecker structure and accounts for two mutually independent noise processes: a coloured and a white one. The maximum-likelihood (ML) estimator is applied to identify this covariance model from observations. The ML estimator gives rise to a non-convex optimisation problem. Since no closed-form solution is available, an iterative, space-alternating Gauss-Newton algorithm is proposed to solve the optimisation problem. This approach repeatedly requires the evaluation of the ML cost function. Since the cost function composes of the inverse and determinant of the covariance matrix, its evaluation can be memory exhaustive, numerically unstable and computationally complex. A computational method is developed to overcome these issues, using the simultaneous matrix diagonalisation and exploiting the properties of the Kronecker product. Measurements by a MIMO radar are used to identify the covariance model and to demonstrate its benefits. The identified covariance model is used to whiten the measurements. The whitening reduces interfering, noise-like components, which enhances the signal-to-interference ratio and hence facilitates the target detection.



https://doi.org/10.1016/j.sigpro.2022.108542
Prévost, Clémence; Usevich, Konstantin; Haardt, Martin; Comon, Pierre; Brie, David
Constrained Cramér-Rao bounds for reconstruction problems formulated as coupled canonical polyadic decompositions. - In: Signal processing, Bd. 198 (2022), 108573

We propose a theoretical performance analysis for a class of reconstruction problems, formulated as coupled canonical polyadic decompositions of two low-resolution tensor observations. We study a particular case when all the modes of the tensors are coupled. Unlike the case of a single coupling constraint, a fully-coupled model requires nonlinear constraints in some estimation scenarios. Thus we introduce two probabilistic scenarios. For each scenario, we derive the constrained Cramér-Rao bounds for the parameters and for the mean-squared error of the reconstructed tensor. We show that with a carefully chosen initialization, the maximum likelihood estimators reach the bounds, even in challenging cases (low signal-to-noise ratio or large tensor rank).



https://doi.org/10.1016/j.sigpro.2022.108573
Weise, Konstantin; Wartman, William A.; Knösche, Thomas R.; Nummenmaa, Aapo R.; Makarov, Sergey N.
The effect of meninges on the electric fields in TES and TMS. Numerical modeling with adaptive mesh refinement. - In: Brain stimulation, ISSN 1876-4754, Bd. 15 (2022), 3, S. 654-663

Background - When modeling transcranial electrical stimulation (TES) and transcranial magnetic stimulation (TMS) in the brain, the meninges - dura, arachnoid, and pia mater - are often neglected due to high computational costs. - Objective - We investigate the impact of the meningeal layers on the cortical electric field in TES and TMS while considering the headreco segmentation as the base model. - Method - We use T1/T2 MRI data from 16 subjects and apply the boundary element fast multipole method with adaptive mesh refinement, which enables us to accurately solve this problem and establish method convergence at reasonable computational cost. We compare electric fields in the presence and absence of various meninges for two brain areas (M1HAND and DLPFC) and for several distinct TES and TMS setups. - Results - Maximum electric fields in the cortex for focal TES consistently increase by approximately 30% on average when the meninges are present in the CSF volume. Their effect on the maximum field can be emulated by reducing the CSF conductivity from 1.65 S/m to approximately 0.85 S/m. In stark contrast to that, the TMS electric fields in the cortex are only weakly affected by the meningeal layers and slightly (∼6%) decrease on average when the meninges are included. - Conclusion - Our results quantify the influence of the meninges on the cortical TES and TMS electric fields. Both focal TES and TMS results are very consistent. The focal TES results are also in a good agreement with a prior relevant study. The solver and the mesh generator for the meningeal layers (compatible with SimNIBS) are available online.



https://doi.org/10.1016/j.brs.2022.04.009
Semper, Sebastian;
Efficient algorithms and data structures for compressive sensing. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (xxxiv, 276 Seiten)
Technische Universität Ilmenau, Dissertation 2022

Wegen der kontinuierlich anwachsenden Anzahl von Sensoren, und den stetig wachsenden Datenmengen, die jene produzieren, stößt die konventielle Art Signale zu verarbeiten, beruhend auf dem Nyquist-Kriterium, auf immer mehr Hindernisse und Probleme. Die kürzlich entwickelte Theorie des Compressive Sensing (CS) formuliert das Versprechen einige dieser Hindernisse zu beseitigen, indem hier allgemeinere Signalaufnahme und -rekonstruktionsverfahren zum Einsatz kommen können. Dies erlaubt, dass hierbei einzelne Abtastwerte komplexer strukturierte Informationen über das Signal enthalten können als dies bei konventiellem Nyquistsampling der Fall ist. Gleichzeitig verändert sich die Signalrekonstruktion notwendigerweise zu einem nicht-linearen Vorgang und ebenso müssen viele Hardwarekonzepte für praktische Anwendungen neu überdacht werden. Das heißt, dass man zwischen der Menge an Information, die man über Signale gewinnen kann, und dem Aufwand für das Design und Betreiben eines Signalverarbeitungssystems abwägen kann und muss. Die hier vorgestellte Arbeit trägt dazu bei, dass bei diesem Abwägen CS mehr begünstigt werden kann, indem neue Resultate vorgestellt werden, die es erlauben, dass CS einfacher in der Praxis Anwendung finden kann, wobei die zu erwartende Leistungsfähigkeit des Systems theoretisch fundiert ist. Beispielsweise spielt das Konzept der Sparsity eine zentrale Rolle, weshalb diese Arbeit eine Methode präsentiert, womit der Grad der Sparsity eines Vektors mittels einer einzelnen Beobachtung geschätzt werden kann. Wir zeigen auf, dass dieser Ansatz für Sparsity Order Estimation zu einem niedrigeren Rekonstruktionsfehler führt, wenn man diesen mit einer Rekonstruktion vergleicht, welcher die Sparsity des Vektors unbekannt ist. Um die Modellierung von Signalen und deren Rekonstruktion effizienter zu gestalten, stellen wir das Konzept von der matrixfreien Darstellung linearer Operatoren vor. Für die einfachere Anwendung dieser Darstellung präsentieren wir eine freie Softwarearchitektur und demonstrieren deren Vorzüge, wenn sie für die Rekonstruktion in einem CS-System genutzt wird. Konkret wird der Nutzen dieser Bibliothek, einerseits für das Ermitteln von Defektpositionen in Prüfkörpern mittels Ultraschall, und andererseits für das Schätzen von Streuern in einem Funkkanal aus Ultrabreitbanddaten, demonstriert. Darüber hinaus stellen wir für die Verarbeitung der Ultraschalldaten eine Rekonstruktionspipeline vor, welche Daten verarbeitet, die im Frequenzbereich Unterabtastung erfahren haben. Wir beschreiben effiziente Algorithmen, die bei der Modellierung und der Rekonstruktion zum Einsatz kommen und wir leiten asymptotische Resultate für die benötigte Anzahl von Messwerten, sowie die zu erwartenden Lokalisierungsgenauigkeiten der Defekte her. Wir zeigen auf, dass das vorgestellte System starke Kompression zulässt, ohne die Bildgebung und Defektlokalisierung maßgeblich zu beeinträchtigen. Für die Lokalisierung von Streuern mittels Ultrabreitbandradaren stellen wir ein CS-System vor, welches auf einem Random Demodulators basiert. Im Vergleich zu existierenden Messverfahren ist die hieraus resultierende Schätzung der Kanalimpulsantwort robuster gegen die Effekte von zeitvarianten Funkkanälen. Um den inhärenten Modellfehler, den gitterbasiertes CS begehen muss, zu beseitigen, zeigen wir auf wie Atomic Norm Minimierung es erlaubt ohne die Einschränkung auf ein endliches und diskretes Gitter R-dimensionale spektrale Komponenten aus komprimierten Beobachtungen zu schätzen. Hierzu leiten wir eine R-dimensionale Variante des ADMM her, welcher dazu in der Lage ist die Signalkovarianz in diesem allgemeinen Szenario zu schätzen. Weiterhin zeigen wir, wie dieser Ansatz zur Richtungsschätzung mit realistischen Antennenarraygeometrien genutzt werden kann. In diesem Zusammenhang präsentieren wir auch eine Methode, welche mittels Stochastic gradient descent Messmatrizen ermitteln kann, die sich gut für Parameterschätzung eignen. Die hieraus resultierenden Kompressionsverfahren haben die Eigenschaft, dass die Schätzgenauigkeit über den gesamten Parameterraum ein möglichst uniformes Verhalten zeigt. Zuletzt zeigen wir auf, dass die Kombination des ADMM und des Stochastic Gradient descent das Design eines CS-Systems ermöglicht, welches in diesem gitterfreien Szenario wünschenswerte Eigenschaften hat.



https://doi.org/10.22032/dbt.51729
Soleymani, Dariush M.;
Radio resource allocation for overlay D2D-based vehicular communications in future wireless networks. - Ilmenau : Universitätsbibliothek, 2022. - 1 Online-Ressource (xiv, 128 Seiten)
Technische Universität Ilmenau, Dissertation 2022

Mobilfunknetze der nächsten Generation ermöglichen einen weitverbreiteten Einsatz von Device-to-Device Kommunikation, der direkten Kommunikation zwischen zellularen Endgeräten. Für viele Anwendungsfälle zur direkten Kommunikation zwischen Endgeräten sind eine deterministische Latenz und die hohe Zuverlässigkeit von zentraler Bedeutung. Dienste zur direkten Kommunikation (D2D) für in der Nähe befindliche Endgeräte sind vielversprechend die hohen Anforderungen an Latenz und Zuverlässigkeit für zukünftige vertikale Anwendungen zu erfüllen. Eine der herausragenden vertikalen Anwendungen ist die Fahrzeugkommunikation, bei der die Fahrzeuge sicherheitskritische Meldungen direkt über D2D-Kommunikation austauschen, die dadurch zur Reduktion von Verkehrsunfällen und gleichzeitig von Todesfällen im Straßenverkehrt beiträgt. Neue Techniken zur effizienteren Zuweisung von Funkressourcen in der D2D-Kommunikation haben in letzter Zeit in Industrie und Wissenschaft große Aufmerksamkeit erlangt. Zusätzlich zur Allokation von Ressourcen, wird die Energieeffizienz zunehmend wichtiger, die normalerweise im Zusammenhang mit der Ressourcenallokation behandelt wird. Diese Dissertation untersucht verschiedener Ansätze der Funkressourcenzuweisung und Energieeffizienztechniken in der LTE und NR V2X Kommunikation. Im Folgenden beschreiben wir kurz die Kernideen der Dissertation. Meist zeichnen sich D2D-Anwendungen durch ein relativ geringes Datenvolumen aus, die über Funkressourcen übertragen werden. In LTE können diese Funkressourcen aufgrund der groben Granularität für die Ressourcenzuweisung nicht effizient genutzt werden. Insbesondere beim semi-persistenten Scheduling, bei dem eine Funkressource über einen längeren Zeitraum im Overlay D2D festgelegt wird, sind die Funkressourcen für solche Anwendungen nicht ausgelastet. Um dieses Problem zu lösen, wird eine hierarchische Form für das Management der Funkressourcen, ein sogenanntes Subgranting-Schema, vorgeschlagen. Dabei kann ein nahegelegener zellularer Nutzer, der sogenannte begünstigte Nutzer, ungenutzten Funkressourcen, die durch Subgranting-Signalisierung angezeigt werden, wiederzuverwenden. Das vorgeschlagene Schema wird bewertet und mit "shortening TTI", einen Schema mit reduzierten Sendezeitintervallen, in Bezug auf den Zellendurchsatz verglichen. Als nächster Schritt wird untersucht, wie der begünstigten Benutzer ausgewählt werden kann und als Maximierungsproblem des Zellendurchsatzes im Uplink unter Berücksichtigung von Zuverlässigkeits- und Latenzanforderungen dargestellt. Dafür wird ein heuristischer zentralisierter, d.h. dedizierter Sub-Granting-Radio-Ressource DSGRR-Algorithmus vorgeschlagen. Die Simulationsergebnisse und die Analyse ergeben in einem Szenario mit stationären Nutzern eine Erhöhung des Zelldurchsatzes bei dem Einsatz des vorgeschlagenen DSGRR-Algorithmus im Vergleich zu einer zufälligen Auswahl von Nutzern. Zusätzlich wird das Problem der Auswahl des begünstigten Nutzers in einem dynamischen Szenario untersucht, in dem sich alle Nutzer bewegen. Wir bewerten den durch das Sub-Granting durch die Mobilität entstandenen Signalisierungs-Overhead im DSGRR. Anschließend wird ein verteilter Heuristik-Algorithmus (OSGRR) vorgeschlagen und sowohl mit den Ergebnissen des DSGRR-Algorithmus als auch mit den Ergebnissen ohne Sub-Granting verglichen. Die Simulationsergebnisse zeigen einen verbesserten Zellendurchsatz für den OSGRR im Vergleich zu den anderen Algorithmen. Außerdem ist zu beobachten, dass der durch den OSGRR entstehende Overhead geringer ist als der durch den DSGRR, während der erreichte Zellendurchsatz nahe am maximal erreichbaren Uplink-Zellendurchsatz liegt. Zusätzlich wird die Ressourcenallokation im Zusammenhang mit der Energieeffizienz bei autonomer Ressourcenauswahl in New Radio (NR) Mode 2 untersucht. Die autonome Auswahl der Ressourcen wird als Verhältnis von Summenrate und Energieverbrauch formuliert. Das Ziel ist den Stromverbrauch der akkubetriebenen Endgeräte unter Berücksichtigung der geforderten Zuverlässigkeit und Latenz zu minimieren. Der heuristische Algorithmus "Density of Traffic-based Resource Allocation (DeTRA)" wird als Lösung vorgeschlagen. Bei dem vorgeschlagenen Algorithmus wird der Ressourcenpool in Abhängigkeit von der Verkehrsdichte pro Verkehrsart aufgeteilt. Die zufällige Auswahl erfolgt zwingend auf dem dedizierten Ressourcenpool beim Eintreffen aperiodischer Daten. Die Simulationsergebnisse zeigen, dass der vorgeschlagene Algorithmus die gleichen Ergebnisse für die Paketempfangsrate (PRR) erreicht, wie der sensing-basierte Algorithmus. Zusätzlich wird der Stromverbrauch des Endgeräts reduziert und damit die Energieeffizienz durch die Anwendung des DeTRA-Algorithmus verbessert. In dieser Arbeit werden Techniken zur Allokation von Funkressourcen in der LTE-basierten D2D-Kommunikation erforscht und eingesetzt, mit dem Ziel Funkressourcen effizienter zu nutzen. Darüber hinaus ist der in dieser Arbeit vorgestellte Ansatz eine Basis für zukünftige Untersuchungen, wie akkubasierte Endgeräte mit minimalem Stromverbrauch in der NR-V2X-Kommunikation Funkressourcen optimal auswählen können.



https://doi.org/10.22032/dbt.51719
Suri, Rohan;
Information-centric networking for Airborne Networks. - Ilmenau. - 88 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

In dieser neuen, schnelleren Generation des Internets sind die Daten und Inhalte bereits die größten und wichtiger (z.B. YouTube, Netflix, Amazon, iTunes, Spotify). Das frühere Internet basierte auf dem Konzept der Datenübertragung auf Client-Server-Basis Verbindung ohne Bedingung für Quality of Service (QoS). Der Begriff Informationszentriert Networking (ICN) erschien um 2010, wahrscheinlich inspiriert von Van Jacobsons Google aus dem Jahr 2006 Tech Talk "Eine neue Sicht auf Networking". Dies war einer der Wendepunkte die Internetarchitektur von einem ganz neuen Standpunkt aus zu betrachten. Die Hauptmotivation gegenüber ICN ist das architektonische Missverhältnis der heutigen Internetarchitektur und ihrer Nutzung. Information-Centric Networking (ICN) bringt viele Fortschritte und Vorteile über die traditionelle Infrastruktur, die im Fall der Luftfahrzeuge nicht getestet wurde Netzwerke. Unser Ziel dieser Arbeit ist es, die ICN-Kommunikation in der Luft zu testen Netzwerk mithilfe von Netzwerkvirtualisierungstechnologie basierend auf Software Defined Networking (SDN) und testen Sie die Load-Balancing-Schemata. In den Ergebnissen der Diplomarbeit die Leistung Es wurde eine Auswertung zwischen zwei Weiterleitungsstrategien durchgeführt. Mehrere Controller waren auch auf den SDN- und ICN-Technologien getestet. Unter Verwendung aller oben genannten Technologien in der Luft Die Netzwerktopologie wurde bereitgestellt und die Kommunikation über ICN ermöglicht. Das gesamte Setup wurde für das Airlab-Testbed bei Airbus erstellt, um eines seiner Ziele zu zeigen das Potenzial der Verwendung von ICN als Kernelement zukünftiger luftgestützter Netzwerke in Bezug auf Unterstützung von Internet Protocol (IP)-Anwendungen bei gleichzeitiger Erzielung einer besseren Leistung mobile Umgebungen.



Rakhimov, Adel;
Performance analysis of Tensor ESPRIT in DFT-beamspace. - Ilmenau. - 181 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

In dieser Arbeit betrachten wir die analytische Leistungsanalyse von Tensor-ESPRIT im Elementraum und DFT-Strahlraum unter Verwendung physikalischer Parameter. Wir betrachten die Störungserweiterung erster Ordnung des Signalunterraumschätzungsfehlers. Zunächst betrachten wir die Leistungsanalyse von 1-D-ESPRIT-Algorithmen im Elementraum und DFT-Strahlraum und leiten Ausdrücke für den mittleren quadratischen Fehler ab, die bestimmte Annahmen über die Verteilung des Rauschens voraussetzen. Zweitens analysieren wir die Vorteile der Verwendung physikalischer Parameter anstelle von Unterraumkomponenten, die über die Singulärwertzerlegung der Messmatrix gefunden werden. Drittens erweitern wir unsere Analyse auf Tensor-ESPRIT im Elementraum und DFT-Strahlraum auf der Grundlage desselben Ansatzes. Wir stellen Simulationen in Matlab zur Verfügung, die die Ausdrücke für den von uns abgeleiteten mittleren quadratischen Fehler verifizieren. Außerdem betrachten wir eine Tensor-Formulierung der Cramer-Rao-Untergrenze für das Problem der R-D-Kanalparameterschätzung im DFT-Strahlraum. Um einen tensorbasierten Ausdruck für die untere Schranke von Cramer-Rao zu erhalten, betrachten wir die kanonische polyadische Zerlegung eines mehrdimensionalen Kanals und beschreiben die Ableitung der Fisher-Informationsmatrix in Tensorform. Darüber hinaus wurden Algorithmen zur Ableitung der unteren Schranke von Cramer-Rao im DFT-Strahlraum und Elementraum entwickelt. Außerdem zeigen wir Simulationsergebnisse der vorgeschlagenen Formulierung für die 3-D-Kanalparameterschätzung in verschiedenen Szenarien.



Bewertung elektromagnetischer Feldimmissionen durch moderne Mobilitätssysteme. - Ilmenau. - 59 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Heutzutage wird die drahtlose Kommunikation immer weiterentwickelt und auf unserem Leben beeinflusst. Die Straßentransportsysteme werden sich entsprechend den neuen Anforderungen einer verändernden Welt weiterentwickelt. Die Zahl der Vernetzungen moderner Fahrzeuge nimmt ständig zu. Die verschiedenen Formen der Kommunikation, z.B. die Vernetzung von Fahrzeugen untereinander, mit der Umwelt und der Infrastruktur, werden unter dem Begriff V2X zusammengefasst. Um die Fahrzeuge miteinander kommunizieren zu können, werden zwei Funktechnologien ITS-G5 und C-V2X eingesetzt. Diese neue Technologie wird die elektromagnetische Umgebung des Verkehrs verändern und es muss sichergestellt werden, dass die Bevölkerungsschutzgrenzen nicht überschritten werden. Dazu werden das Strahlungsverhalten in VISTA unter Verwendung von unterschiedlichen Funkkanalmodellen und unterschiedlichen Antennen untersucht. Diese Analyseszenarien lassen sich durch Hochfrequenz-Simulationen nachstellen. Auch komplexe Verkehrs- und Kommunikationsszenarien lassen sich durch ein Simulationsbewertungsverfahren untersuchen, mit denen die elektromagnetischen Immissionen für verschiedene Montagevarianten der Funkmodule erfasst werden kann. Weiterhin kann festgestellt werden, dass Montagevarianten der Funkmodule und die reflektierende Umgebung einen Einfluss auf Strahlungsimmission haben. Abschließend wird die Minimierung von Immission und Emission der Funkquelle genannt, die durch Antennenposition und Reduzierung der Sendeleistung ermöglicht werden kann.



Weise, Konstantin; Müller, Erik; Poßner, Lucas; Knösche, Thomas R.
Comparison of the performance and reliability between improved sampling strategies for polynomial chaos expansion. - In: Mathematical biosciences and engineering, ISSN 1551-0018, Bd. 19 (2022), 8, S. 7425-7480

As uncertainty and sensitivity analysis of complex models grows ever more important, the difficulty of their timely realizations highlights a need for more efficient numerical operations. Non-intrusive Polynomial Chaos methods are highly efficient and accurate methods of mapping input-output relationships to investigate complex models. There is substantial potential to increase the efficacy of the method regarding the selected sampling scheme. We examine state-of-the-art sampling schemes categorized in space-filling-optimal designs such as Latin Hypercube sampling and L1-optimal sampling and compare their empirical performance against standard random sampling. The analysis was performed in the context of L1 minimization using the least-angle regression algorithm to fit the GPCE regression models. Due to the random nature of the sampling schemes, we compared different sampling approaches using statistical stability measures and evaluated the success rates to construct a surrogate model with relative errors of < 0.1 %, < 1 %, and < 10 %, respectively. The sampling schemes are thoroughly investigated by evaluating the y of surrogate models constructed for various distinct test cases, which represent different problem classes covering low, medium and high dimensional problems. Finally, the sampling schemes are tested on an application example to estimate the sensitivity of the self-impedance of a probe that is used to measure the impedance of biological tissues at different frequencies. We observed strong differences in the convergence properties of the methods between the analyzed test functions.



https://doi.org/10.3934/mbe.2022351
Bhattacharya, Sayan;
Design and evaluation of an autonomous comparison method for feature ranking for machine prognostics. - Ilmenau. - 102 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Das Feature Ranking (FR) befasst sich mit der Aufgabe, eine Hierarchie nützlicher Merkmale oder Features in einem gegebenen Datenset zu finden. Eine Anwendung von FR kann im Bereich der vorausschauenden Wartung (Predictive Maintenance, PdM) liegen, wo der Zustand der Maschine ständig überwacht wird. Da datengetriebene Ansätze immer beliebter werden, ist ein nächster Schritt hin zu PdM Anwendungen, Lösungen die auf künstlicher Intelligenz (KI) basieren auf eingebetteten Plattformen zu realisieren. Eingebettete Plattformen mit begrenzten Ressourcen erfordern jedoch ein sorgfältigeres Design der KI-Lösung, und daher ist es entscheidend, welche Merkmale verwendet werden, um die Gesamtkomplexität des Modells zu reduzieren. Aus diesem Grund hilft FR dem Systemdesigner, indem es eine Perspektive für die optimale Anzahl von Merkmalen und deren Herkunft bietet. Einige der bestehenden Ansätze kennen die verrauschten Merkmale bereits im Voraus, während andere spezifische Metriken für die Bewertung bestimmter FR-Methoden haben. Darüber hinaus ist eine manuelle Suche teuer und oft suboptimal.Der Schwerpunkt dieser Arbeit liegt auf der Entwicklung einer Methodik zum Vergleich verschiedener FR-Algorithmen, die es ermöglichen, Merkmale für eine optimierte Systemleistung auszuwählen, wenn sie in einem eingebetteten System eingesetzt werden. Die gesamte Informationsverarbeitungspipeline in PdM-Anwendungen wird auf modernste Merkmalsextraktoren und modernste FR-Algorithmen eingegrenzt, und schließlich wird ein Modell des maschinellen Lernens (ML) als Wrapper als Vergleichswerkzeug verwendet. Die beste Lösung für die PdM-Aufgabe zu finden, würde jedoch den Rahmen dieser Arbeit sprengen. Die Methode wird an zwei Datensätzen getestet: PRONOSTIA, einem Open-Source-Datensatz zur Ermittlung des Zustands von Lagern, und einem FAN-Datensatz, der von der IMMS GmbH über den Gesundheitszustand von Computerlüftern erstellt wurde. Es wird auf die Details des Designs der FR-Algorithmen eingegangen. Die Ergebnisse von vier verschiedenen Arten von FR-Algorithmen werden anhand der vorgeschlagenen Methode verglichen. Schließlich wird gezeigt, dass die Methode einen detaillierteren Einblick in die Frage bietet, wie viele Merkmale zur Leistung einer KI-Lösung beitragen und welche Merkmale durch diesen heuristischen Ansatz verrauscht würden. Dies führt zu einer beträchtlichen Verringerung der Anzahl von Merkmalen, die eine bessere Strategie für das Systemdesign für die Randleistung in PdM-Anwendungen bieten würde.