Abschlussarbeiten

Anzahl der Treffer: 206
Erstellt: Sun, 30 Jun 2024 14:00:05 +0200 in 0.1282 sec


Vaidya, Purvaj Piyush;
Low Complexity Enhancement Video Coding (LCEVC) variant. - Ilmenau. - 75 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

In dieser Arbeit wird eine LCEVC-ähnliche Pipeline entwickelt, bei der ein unkomprimiertes Quellvideo kodiert wird, um verschiedene Videoformate wie herunterskalierte Videos, grundkodierte Videos, hochskalierte Videos und Residuen zu erzeugen, um eine endgültige verbesserte dekodierte Ausgabe zu berechnen, die im Vergleich zum unkomprimierten Quellvideo stark komprimiert ist und zusätzlich die Qualitäten des ursprünglichen Quellvideos ohne großen Informationsverlust beibehält und verbessert. Der Upscaling-/Downscaling-Faktor wird mit n angegeben, und in dieser Arbeit wurden drei verschiedene Werte für n verwendet: n = 2, 4 und 8. Die für diese Arbeit verwendeten Basis-Encoder sind libx264, libx265 und vp9. Für die Bewertung der Videoqualität wurde die objektive Metrik Video Multimethod Assessment Fusion (VMAF) verwendet. Für die Ergebnisse wurde ein Vergleich der Dateigröße zwischen den verschiedenen Videoformaten durchgeführt und auch ein VMAF-Vergleich zwischen den basiscodierten und den verbesserten decodierten Videos wurde berechnet. Die höchsten VMAF-Werte für alle drei Basis-Encoder wurden für n = 2 ermittelt. Daraus lässt sich schließen, dass das in dieser Arbeit verwendete Systemdesign die Ausgabe mit zunehmendem Downscaling-Faktor verbessert. Die Verbesserung hängt auch vom Inhalt des Videos in Bezug auf die räumliche und zeitliche Information ab. Darüber hinaus spielt auch der Einfluss des verwendeten Encoders eine wichtige Rolle bei der Verbesserung des Videos. In dieser Arbeit werden Werkzeuge wie FFMPEG und VMAF verwendet.



Siebenkees, Valentin;
Untersuchung des Einsatzes von AR/VR-Systemen für die Kalibrierung/Referenzierung einer fokusbasierten Abstandsmessung mit elektronisch fokussierbaren Objektiven. - Ilmenau. - 73 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Abstandsmessung ist eine wichtige Thematik in der optischen Messtechnik. Häufig ist diese mit großen und komplexen Aufbauten verbunden. Um Zeit und Kosten zu sparen, ist es deshalb von Vorteil, Verfahren zu entwickeln, durch die solche Aufbauten vereinfacht werden können. Das Ziel der Arbeit ist herauszufinden, ob es möglich ist, virtuelle Bildanzeigesysteme für die Kalibrierung und Referenzierung eines Kamerasystems auf Basis des Zusammenhangs zwischen der Position der hinteren Hauptebene elektronisch fokussierbarer Objektive und der virtuellen Bilddistanz zu nutzen. Um diese Forschungsfrage zu beantworten, wurde zunächst anhand von Vortests analysiert, welche Anzeigesysteme für solch ein Verfahren genutzt werden können. Mit dem fokussierbaren optischen Kollimator wurde ein System gefunden, das den Anforderungen gerecht wird. Um den beschriebenen Zusammenhang nachzuweisen, wurde ein Messverfahren programmiert, in dem mit Hilfe des Kollimators virtuelle Bilder in verschiedenen Distanzen gemessen wurden. Für jede Distanz wurde, durch die Auswertung der Modulationsübertragungsfunktion des betrachteten Bildes, die Position der hinteren Hauptebene des Kameraobjektives gefunden, in der das virtuelle Bild maximal scharf auf dem Kamerasensor abgebildet wird. Durch kritische Analyse und Fehlerbetrachtung der Messergebnisse konnte ein Verlauf des Zusammenhangs mit kombinierter Unsicherheit ermittelt werden. Anhand der Ergebnisse der Arbeit lässt sich bestätigen, dass es möglich ist, virtuelle Bildanzeigesysteme für die Kalibrierung und Referenzierung eines Kamerasystems auf Basis des Zusammenhangs zwischen der Position der hinteren Hauptebene elektronisch fokussierbarer Objektive und der virtuellen Bilddistanz zu nutzen. Weiterführende Forschung kann an der Optimierung der Messautomatisierung oder der Brennweitenbestimmung und an der Betrachtung verschiedener Anzeigesysteme sowie von nicht betrachteten Einflüssen, wie dem der Objektivblende auf die Messung, durchgeführt werden.



Prenzel, Julius;
Enabling sharpness control with increasing sensor resolution in a motion picture camera system. - Ilmenau. - 92 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Eine individuelle Anpassung der Bildschärfe innerhalb eines Kamerasystems ist bei hochauflösenden Bildern nur schwer zu erreichen. Durch den Einsatz digitaler Filter im Ortsbereich soll in dieser Arbeit eine gleichbleibend starke und individuell anpassbare Manipulation der Bildschärfe bei steigenden Sensorauflösungen gewährleistet werden, ohne dass mehr Ressourcen im FPGA der Kamera benötigt werden. Dazu soll zunächst das Auftreten visueller Unterschiede bei der Filterung verschieden aufgelöster Bilder mit demselben Filterkern technisch erklärt werden. Darauf aufbauend werden Methoden entwickelt, die dazu dienen bei der Filterung im FPGA Ressourcen zu sparen, um damit eine breitere Pixelumgebung beeinflussen zu können und so gleichbleibend starke Effekte bei steigender Sensorauflösung zu gewährleisten. Mit dem ersten Ansatz wird eine Ersparnis im Linebuffer des FPGAs erreicht, indem benachbarte Bildzeilen zusammengeführt werden, was in dieser Arbeit als HDF bezeichnet wird. Die zweite Methode basiert auf der Reduzierung der Bittiefe bestimmter Pixel im Filterprozess. Um die Performance dieser vorgestellten Methoden zu bewerten, werden sowohl eine subjektive Qualitätsbewertung durch Experten als auch eine objektive Bewertung mithilfe von Bildqualitätsmetriken durchgeführt. Obwohl die Qualitätsunterschiede zwischen dem ursprünglichen Ansatz und den neu entwickelten Methoden bei der getesteten Auflösung von 4k noch relativ gering sind, ermöglichen sie es bei einer weiter steigenden Auflösung eine gleichbleibende Flexibilität bei der Filterung, ohne die theoretisch benötigte höhere Menge an Ressourcen zu verwenden.



Paracha, Abdul Haq Azeem;
Assessment and application of machine learning methods to NVH related component data in the automotive R&D environment. - Ilmenau. - 118 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Ein multidisziplinäres Wissen über Signalverarbeitung, Strukturdynamik, mechanische Systeme und Psychoakustik und vor allem ein erfahrener Fachmann sind Voraussetzung für die NVH-Analyse von Fahrzeugen. Eine wachsende Datenmenge aufgrund des raschen industriellen und technologischen Wandels stellt eine Herausforderung für NVH-Ingenieure dar. Die Fortschritte und Erfolge auf dem Gebiet des maschinellen Lernens, insbesondere der tiefen neuronalen Netze, sind eine Hauptmotivation für diese Forschung. Ziel dieser Studie ist es erstens, Datensätze aus der Automobilbranche und Forschung und Entwicklung zu analysieren und die Anforderungen an zukünftige Anwendungen des maschinellen Lernens zu bewerten. Zweitens soll das Deep Neural Network Autoencoder-Modell zur Erleichterung der Fehlerdiagnose für NVH-Ingenieure bewertet werden. Der Ansatz zur Beantwortung der Forschungsfrage ist datengetrieben. Die Autoencoder-Anwendung umfasst drei Fälle. Im ersten Szenario wird der Unterschied des Rekonstruktionsfehlers zwischen normalen und fehlerhaften Daten analysiert. Der zweite Ansatz besteht darin, einen Autoencoder für die Erkennung von Anomalien zu verwenden, und schließlich wird er für die Visualisierung in reduzierten Dimensionen eingesetzt. Die Methode zur Visualisierung von NVH-Daten ist rein unüberwacht und neben einem Autoencoder werden auch T-SNE und DBSCAN verwendet, um die Beziehung zwischen den Datenpunkten zu finden. Der primäre Fokus dieser Forschung ist das Repräsentationslernen. Daher wird die Anwendung des Autoencoders in verschiedenen parametrischen Variationen im Vorverarbeitungsschritt evaluiert. Außerdem werden zwei Modelle verwendet, ein tiefes neuronales Netz (Multilayer Perceptron) und ein rekurrentes neuronales Netz mit Langzeitgedächtnis. Die Untersuchung schließt mit einem Vergleich der Leistung der Vorverarbeitungsparameter und der Modelle für die Fehlererkennung in den NVH-Industriedatensätzen ab. Außerdem werden die Einschränkungen bei der Verfügbarkeit von Daten und Kommentaren aufgrund der hohen Kosten untersucht. Die Ergebnisse dieser Forschung liefern nicht nur einen Mechanismus zur Fehlererkennung, sondern auch eine methodische Grundlage für die künftige Bewertung von Industriedatensätzen.



Pillai, Prateek Pradeep;
Loudspeaker configuration for immersive audio in cars using up-firing techniques. - Ilmenau. - 83 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Eine der Herausforderungen für Automobilhersteller und Hersteller von Car-Audio-Systemen ist die Entwicklung von Car-Audio-Systemen, die den wachsenden Bedarf an immersiven Unterhaltungserlebnissen für den mobilen Konsum von Multimedia-Formaten wie Dolby Atmos erfüllen. In dieser Arbeit wird versucht, Up-Firing-Technologien für einen Car-Audio-Anwendungsfall zu adaptieren, der solche immersiven Audioerlebnisse ohne Verwendung von Deckenlautsprechern ermöglicht. Eine 5.1.4 Lautsprecherkonfiguration mit Up-Firing-Lautsprechern wurde entwickelt und mittels objektiver und subjektiver Bewertungsmethoden mit Stereo, 5.1 und einer 5.1.4-Referenzkonfiguration mit Deckenlautsprechern verglichen. Objektive Bewertungsmethoden wie der Pearson-Korrelationskoeffizient (PCC) und die Perceptual Evaluation of Audio Quality (PEAQ) konnten minimal zwischen den spektralen, nicht aber den räumlichen Merkmalen verschiedener Lautsprecherkonfigurationen unterscheiden. Die Schätzung der Einfallsrichtung half dabei, die räumlichen Ähnlichkeiten zwischen der 5.1.4-Referenzkonfiguration mit Deckenlautsprechern und der vorgeschlagenen Up-Firing 5.1.4- Konfiguration zu ermitteln und zeigte die Grenzen der Lautsprecheraufstellung für Up-Firing-Lautsprecherchassis auf. Die subjektiven Bewertungstests ergaben eine klare Präferenz der Hörer für die 5.1-Lautsprecherkonfiguration, die in "Multiple Stimulus with Hidden Reference and Anchor (MUSHRA)"-Tests etwa 7 Punkte höher bewertet wurde als die 5.1.4-Lautsprecherkonfiguration mit Up-Firing. Allerdings erwies sich diese als deutlich besser als die Stereokonfiguration mit einer MUSHRA-Bewertungsdifferenz von etwa 14 Punkten. Diese Bevorzugung könnte auf mehrere Faktoren zurückzuführen sein, einschließlich, aber nicht beschränkt auf die Abstimmung des Fahrzeuginnenraums, den Zielfrequenzgang der Up-Firing 5.1.4-Lautsprecherkonfiguration, sowie auf die Klangfarbe der Up-Firing Lautsprecher selbst. Diese subjektiven Testergebnisse unterstützen die objektiven Ergebnisse, die darauf hinweisen, dass die vorgeschlagene Up-Firing 5.1.4-Lautsprecherkonfiguration einen weniger ausgeprägten Höheneindruck vermittelt als die 5.1.4-Referenzkonfiguration mit Deckenlautsprechern. Die nahe beieinander liegenden MUSHRA-Bewertungen der Up-Firing 5.1.4 Lautsprecherkonfiguration und der 5.1 Konfiguration bieten eine vielversprechende Grundlage für die Erforschung einer Alternative für den Einsatz von Deckenlautsprechern. Die wichtigste Anwendung einer solchen Lautsprecherkonfiguration ist für Unterhaltungszwecke, z.B. um auch den Insassen von Autos mit niedriger Deckenhöhe/Sonnendach, die keine dedizierte Deckenlautsprecher besitzen, die Möglichkeit zu geben, unterwegs ein virtuelles Konzert zu erleben. Weitere Verbesserungen der Up-Firing Lautsprecherkonfiguration könnten Anwendungen für Gefahren- oder Kollisionswarnungen, Einparkhilfen und Freisprecheinrichtungen für Mobiltelefongespräche, bei denen der Ton aus unterschiedlichen Bereichen des Fahrzeugs kommen soll, ermöglichen.



Ma, Hong;
Unity und 4K-PTZ Kameras als Produktionswerkzeuge für virtuelle Studios. - Ilmenau. - 91 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Das virtuelle Studiosystem ist eine Weiterentwicklung der Bluescreen Produktion von Fernsehinhalten. Es umfasst Schlüsseltechnologien wie Bluescreen-Aufnahme, Kamera-Tracking und -steuerung, Keying und Erstellung von 3D-Szenen. Die virtuelle Studiotechnologie verbessert die Effizienz der Fernsehproduktion, indem z.B. viel Zeit für den Umbau der Studiobühne gespart wird. Außerdem sind die Kosten für die Erstellung und den Platzbedarf bei der Lagerung durch die Nutzung eines virtuellen Studios zum größten Teil gelöst. Darüber hinaus weist das virtuelle Studio ein hohes Maß an Flexibilität auf. So lassen sich mit viel Kreativität der Designer überraschende Effekte bei den Fernsehinhalten realisieren. Diese kann die Qualität und Attraktivität von Fernsehsendungen deutlich verbessern. Inhalt und Aufgabe dieser Masterarbeit war zu untersuchen, ob neue, günstigere Kamerasysteme mit Sensorik (PTZ-Kameras) und neuste 3D-High-End Grafikkarten Potential bieten ein kompakteres virtuelles Studio System aufzubauen. Die Komponenten zur Umsetzung des neuen virtuellen Studio Systems sind dabei vorgegeben und bestehen aus einem High-End Computer, einer PTZ-Kamera, einem Remote-Controller und der Unity3D Software als Rendering-Engine. Mit diesen Komponenten wäre man in der Lage, das Rendering der 3D-Szene für den Hintergrund und das Chroma-Keying in der Bluebox, der High-End 3D-Grafikkarte, zu berechnen. Die Umsetzung der Masterarbeit beinhaltet die Implementierung bzw. Erweiterung von Unity, um die Funktionalitäten der Kamera-Synchronisation, dem Keying, von Filtern und der Kamerafernsteuerung zu realisieren. Das Ergebnis soll in einem Fallszenario demonstriert werden.



Suleman, Muhammad Sami;
Influence of haptic feedback and embodiment on the user experience in virtual reality conferencing and commissioning. - Ilmenau. - 88 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Haptische Rückmeldung und Verkörperung sind ein aktiv erforschter Bereich in der virtuellen Realität (VR). Ein VR-System, das es dem Benutzer ermöglicht, mit virtuellen Objekten so zu interagieren, als ob sie real wären, ist äußerst wünschenswert. Die massive Entwicklung der VR-Industrie hat zu einer Beschleunigung der Entwicklung der haptischen Handschuhtechnologie sowie der Selbstdarstellung des Nutzers in VR durch digitale Avatare geführt. Es gibt jedoch nur wenige Forschungsstudien, die den Einsatz von haptischen Handschuhen in Verbindung mit der Verkörperung in einer virtuellen Umgebung (VE) untersucht haben. Die Bedeutung dieser Forschung liegt darin, besser zu verstehen, wie haptisches Feedback und 3D-Avatarisierung die Benutzererfahrung beeinflussen. Das Hauptziel dieser Studie ist die Entwicklung eines Proof-of-Concept (POC) für eine immersive virtuelle Umgebung (IVE). Durch den Einsatz von Geräten mit haptischem Feedback und Embodiment wird die POC IVE zur Untersuchung von Forschungsfragen zu Präsenz und Immersion eingesetzt. Für das haptische Feedback wurde das SenseGloves Development Kit 1 (DK1) verwendet. Der SenseGloves DK1 ist eine gelenkige Exoskelett-Struktur mit kinästhetischem und vibrotaktilem Feedback. Außerdem wurden in diesem Projekt HTC Vive-Tracker verwendet, um den Körper des Benutzers zu verfolgen. In Unity 3D wurde die Ganzkörperbewegung in der virtuellen Realität mit Hilfe eines 3-Punkt-Trackingsystems, inverser Kinematik und Animationsrigging rekonstruiert. Subjektive Tests wurden von drei VR-Fachleuten durchgeführt, um einen Einblick in die oben gestellten Studienfragen zu erhalten und die Präsenz und Immersion in der virtuellen Realität einzuschätzen. Zwei Testfälle wurden als POC entwickelt. Im ersten Testfall wurde eine Demo für VR-Telekonferenzen entwickelt. Es gab drei verschiedene Szenarien. Die Szenarien enthielten unterschiedliche Einstellungen für haptisches Feedback und Verkörperung. In jedem Szenario musste der Benutzer eine Aufgabe lösen, gefolgt von einem Fragebogen. Im zweiten Testfall wurde eine virtuelle Inbetriebnahme-Demo entwickelt. Sie enthielt ebenfalls drei Szenarien für haptisches Feedback und Verkörperung. In jedem Szenario müssen Aufgaben erledigt und anschließend ein Fragebogen ausgefüllt werden. Schließlich werden die Daten in Gruppen aufgeteilt und mit einfachen Verfahren wie Mittelwert, Standardabweichung, Spearman-Korrelation, ANOVA und t-Test ausgewertet. Die Schlussfolgerungen bestätigten mehrere Ergebnisse früherer Studien über den Einfluss von Haptik und Verkörperung auf die Benutzerqualität und -leistung in VR. Schließlich zeigten die Ergebnisse auch die Bedeutung der Haptik und die Vorteile der Verkörperung für kleine Aufgaben, die in virtuellen Telekonferenzen durchgeführt werden, und die Herausforderung, Aufgaben zu bewältigen, wie zum Beispiel bei der virtuellen Inbetriebnahme.



Analysis of movie trailer composition for automatic trailer generation. - Ilmenau. - 77 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Filmtrailer sind der effektivste Weg, einen Film zu bewerben und das Publikum anzulocken. Heutzutage wächst der Einfluss von Trailern, da sie auf sozialen Medien und Video-Sharing- Plattformen weit verbreitet sind. Das Schneiden eines Filmtrailers gilt als innovativer Prozess, bei dem Profis stundenlanges Filmmaterial sichten, die Szenen auswählen, die am ehesten die Aufmerksamkeit des Publikums erregen, und diese dann schneiden und neu anordnen, um den Trailer zu erstellen. In dieser Arbeit wird ein Ansatz des überwachten Lernens vorgestellt, der automatisch Clips aus Filmen empfehlen kann, ohne dass menschliches Eingreifen oder manuelle Annotationen erforderlich sind, um die Erstellung von Trailern zu unterstützen. Die Methode verwendet ein Deep Convolutional Neuronal Netzwerk (CNN) in Kombination mit einem Long Short-Term Memory (LSTM), um die räumlich-zeitlichen Merkmale von Aufnahmen in Trailern zu modellieren. Das CNN-LSTM-Netzwerk besteht aus zwei Schichten: 1) visuelle Merkmalsextraktion, bei der das CNN-basierte Modell trainiert wird, um den Trailer in die entsprechenden Genres zu klassifizieren; und 2) Highlight-Erkennung, bei der das kombinierte CNN-LSTM-Modell trainiert wird, um Filmclips als Highlights oder Nicht-Highlights zu kategorisieren. Um das entworfene Modell zu trainieren und zu evaluieren, wird ein neuer Filmtrailer-Datensatz erstellt, der über 15K Trailer und 86 Filme mit entsprechenden Filmplots und Metadaten enthält. Der vorgeschlagene Ansatz wurde an mehreren Filmen in Spielfilmlänge getestet. Da es keinen allgemein akzeptierten Bewertungsmechanismus für die Erstellung von Filmtrailern gibt, wurden die erkannten Highlight-Clips als Empfehlungspool extrahiert und mit dem entsprechenden offiziellen Trailer für denselben Film verglichen. Die Ergebnisse zeigen, dass das vorgeschlagene System angemessene Empfehlungen für Filmtrailer gibt und die vom System ausgewählten Clips die zufällig ausgewählten Clips deutlich übertreffen können. Somit extrahiert das System alle notwendigen Informationen aus dem Eingabefilm ohne Vorwissen und empfiehlt den menschlichen Redakteuren automatisch hoch relevante Filmclips, wodurch die Produktionszeit reduziert wird.



Sinani, Luljeta;
Effect of latency on user perception in a mixed reality environment. - Ilmenau. - 70 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Volumetrisches Video (VV) ermöglicht es Zuschauern, hochrealistische 3D-Inhalte mit sechs Freiheitsgraden (6DoF) in Mixed Reality (MR) Umgebungen zu erleben. Das Rendern von volumetrischen Inhalten erfordert viel Rechenleistung, was besonders für mobile Geräte eine Herausforderung darstellt. Um dies zu entschärfen, wird oft das Auslagern des Renderings auf einen Cloud-Server als Lösung gesehen. In solchen Systemen rendert der Cloud-Server eine 2D-Ansicht des volumetrischen Inhalts und streamt ein 2D-Video an den Client (z.B. ein mobiles Gerät). Diese Lösung erhöht jedoch die Motion-to-Photon-Latenz (M2P) aufgrund der zusätzlichen Netzwerk- und Verarbeitungsverzögerungen. Die M2P-Latenz verursacht eine Fehlregistrierung zwischen virtuellen volumetrischen Objekten und der realen Welt. Obwohl verschiedene Techniken zur Minimierung der wahrgenommenen M2P-Latenz vorgeschlagen wurden, sind Techniken zur Messung und Bestimmung der Wahrnehmungsschwellen des Benutzers nicht weit erforscht. Daher wird in dieser Arbeit ein subjektives Testexperiment entworfen, das darauf abzielt, Schwellenwerte für die Latenzerkennung für statische volumetrische Objekte zu finden, die mit einem MR-Headset präsentiert werden. Zu diesem Zweck wird eine Methode entwickelt, um volumetrischen Objekten eine künstliche Latenz hinzuzufügen, es werden psychometrische Methoden zur Bestimmung von Wahrnehmungsschwellen der Latenz untersucht, und es wird eine Testumgebung zur Durchführung subjektiver Tests entwickelt. Für acht Probanden werden unter bestimmten Bedingungen Latenzschwellen gemessen. Die Ergebnisse für die Latenzdiskriminierung werden anhand des Point of Subjective Equality (PSE) und der Just Noticeable Difference (JND) berichtet, die aus den angepassten psychometrischen Funktionen jedes Benutzers extrahiert wurden. Die gefundenen mittleren JND und PSE betragen 16,1 ms bzw. 58,1 ms. Aus diesen Ergebnissen kann gefolgert werden, dass die JND für die Latenzunterscheidung durch trainierte Probanden im Durchschnitt ˜16 ms oder weniger beträgt, unabhängig von der Komplexität des Inhalts. Diese Werte beinhalten nicht die Grundlinienlatenz des Systems. Die Tests wurden unter bestimmten Bedingungen durchgeführt, und die Ergebnisse gelten möglicherweise nicht für alle MR-Bedingungen. Dennoch sind diese Ergebnisse ein Schritt, der es Wissenschaftlern und Ingenieuren ermöglicht, die Latenzanforderungen für die Übertragung von volumetrischem Video, das auf einem Remote-/Cloud-Server gerendert wird, zu bestimmen.



Jawid, Fahad;
Development and investigation of a system to measure influence factors for task performance in immersive virtual environments. - Ilmenau. - 105 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Heutzutage hat die virtuelle Realität aufgrund ihrer fortschrittlichen technischen Eigenschaften so viel Aufmerksamkeit erlangt. Es ist einfach, sie mit virtuellen Objekten auf die gleiche Weise wie in der realen Umgebung zu integrieren und verschiedene Aufgaben innerhalb der virtuellen Umgebung genau wie in der realen Umgebung durchzuführen. Es gibt noch einige Möglichkeiten, an denen noch viel geforscht wird und werden muss. Die Distanzwahrnehmung ist eine dieser möglichen Szenarien in der virtuellen Realität. Es ist ein aktives Forschungsgebiet, dass Benutzer die Entfernung eines Objekts in der virtuellen Realität näher zu sich sehen als in der realen Welt. Um dieses Problem besser zu bewältigen und zu verstehen, besteht die Aufgabe in dieser Arbeit darin, eine Umgebung zu entwerfen, die einige Objekte innerhalb der virtuellen Umgebung wie in der realen Umgebung enthält, und dann den Abstandsunterschied zwischen ihnen im Nahfeld durch einige subjektive Tests zu ermitteln und die messenden Einflussfaktoren für diese Aufgabe mit ihrer Leistung in der immersiven virtuellen Umgebung zu untersuchen. Bisher wurden einige Untersuchungen zu Abstandsunterschieden im Nahfeld durchgeführt, bei denen die Teilnehmer verwirrt waren und mehr Zeit benötigten, um die Aufgabe zu beenden, die 2 cm oder mehr betrug, um zwischen der virtuellen und der realen Umgebung zu wechseln. Das Ziel dieses Themas ist es, eine effizientere und genauere Untersuchung von Abstandsunterschieden im Nahfeld zu finden und die Auswirkungen der Einflussfaktoren auf die Aufgabenleistung zu messen. Es wurden verschiedene subjektive Tests in immersiven virtuellen Umgebungen durchgeführt und vier verschiedene Aufgaben mit dem HTC vive pro, einem Head-Mounted Display, dargestellt. Die virtuellen Umgebungen sind interaktiv, da alles, was die Testperson in der realen Umgebung tut, auch in der virtuellen Umgebung geschieht. Für die in diesem Thema definierten Aufgaben wird das Subjekt einige Aufgaben im Sitzen und andere Aufgaben in einer beweglichen Position ausführen. Nachdem die subjektiven Tests von den Teilnehmern durchgeführt wurden, mussten sie einige Fragen zu den Testszenarien beantworten. Diese Fragen bezogen sich auf die Abstandsdifferenzschätzung und Einflussfaktoren für die Aufgabenerfüllung im IVE. Aus diesen subjektiven Tests wurden die Auswertung und die Ergebnisse durchgeführt. Aus der Einschätzung der Teilnehmer wurde geschlossen, dass die Verwirrung und die Zeit für die Bearbeitung der Aufgaben für jede Aufgabe unterschiedlich war. Bedingungen wie haptisches Feedback, ohne haptisches Feedback, erraten der Zahl, immersive Umgebung und Einflussfaktoren beeinflussen diese Aufgabenleistungen. Aber auch die kombinierten Ergebnisse mit HTC vive pro Hand-Tracking und ohne Hand-Tracking wirken sich auf jede Aufgabe aus. Die frühere [Fre+20] und die neueste Forschung zeigt, dass ab 2cm - 2,5cm die Verwirrung zunimmt. Diese Punkte sind wahrscheinlich nur im Abstand von 2cm - 2,5cm spürbar. Da jedoch nur ein Teilnehmer für alle Aufgaben zur Verfügung stand und eine geringere Anzahl von subjektiven Aufgaben durchgeführt wurde, waren mehr subjektive Tests erforderlich, um bessere und genauere Ergebnisse zu finden.