Abschlussarbeiten

Anzahl der Treffer: 206
Erstellt: Sun, 30 Jun 2024 14:00:05 +0200 in 0.1381 sec


Zhang, Chao;
3D-Audio telephone conferencing : impact and attribution of capture-related degradations on perceived quality. - Ilmenau. - 72 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

In dem Telefonkonferenzsystem kann das räumliche Audio oder das sogenannte 3D-Audio die wahrgenommene Qualität des Zuhörers verbessern, insbesondere für Mehrpersonengespräche. Mit der räumlichen Information ist es möglich, einzelne Sprecher zu identifizieren und zu unterscheiden. Dies ist insbesondere wichtig für den Fall, dass mehrere Sprecher gleichzeitig sprechen. In Bezug auf die Anwendung von Telefonkonferenzen spielen Beeinträchtigungen auf der Aufnahmeseite wie Lärm und Nachhall eine Rolle bei der Qualitätsbewertung. Die Interaktion von aufnahmeseitigen Beeinträchtigungen und die Vorteile des räumlichen Audio-Renderings werden jedoch nicht vollständig verstanden. Ob das 3D-Audio immer noch besser funktioniert als das nicht-räumliche Audio unter den Beeinträchtigungen, wurde noch nicht diskutiert. Daher ist es das Ziel dieser Arbeit, die Auswirkung und Zuordnung der aufnahmebedingten Beinträchtigungen auf die wahrgenommene Qualität aufzudecken. Um dieses Ziel zu erreichen, wurde ein Hörversuch entworfen, implementiert und durchgeführt. Das Hörmaterial wurde durch die Verarbeitung hochqualitativer Sprachaufnahmen mit verschiedenen Methoden erzeugt. Die Integration von PJSIP und SoundScape Renderer wurde implementiert, um 3D-Audio zu erzeugen. Und die ITU-T G.191 Toolbox wurde verwendet, um die Verschlechterungen zu simulieren. Der Vergleich von Gegensprechen, dem s.g. Double-Talk (zwei Sprecher sprechen gleichzeitig) und Wechselsprechen, dem s.g. Single-Talk (zwei Sprecher sprechen alternativ) ist ebenfalls in dieser Arbeit enthalten. Insgesamt werden vier Kategorien von Stimuli erzeugt und jede Kategorie enthält 25 experimentelle Bedingungen. Die Ergebnisse dieser Studie zeigen, dass das 3D-Audio immer besser als das 1D-Audio ist und das Single-Talk besser als das Double-Talk bei gleicher Beeinträchtigung ist. Das heißt, mit der Beeinträchtigung profitiert das 3D-Audio auch von der räumlichen Wirkung. Darüber hinaus verbessert 3D-Audio bei hochqualitativen Stimuli die Qualität für Double-Talk deutlich, aber für Single-Talk nur wenig. Wenn die Sprache durch Rauschen beeinträchtigt wird, erhöht das 3D-Audio die Qualität von Double-Talk und Single-Talk. Der Vorteil von 3D-Audio, der für ungestörte Sprachsignale bekannt ist, ist ebenfalls für verschiedene aufnahmebedingte Beeinträchtigungen erkennbar.



Peter, Julia;
Entwicklung eines Audio-Testplatzes zur Erkennung und Beurteilung von Störern verschiedenster Audiosysteme auf Radio-Wiedergabe im Kfz-Bereich. - Ilmenau. - 101 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Die Arbeit beschäftigt sich mit der Konzipierung und Umsetzung eines Audio-Testplatzes für Radiowiedergabe in Fahrzeugen. Im Speziellen handelt es sich um die Entwicklung einer Softwarelösung in Python zum Testen und Bewerten von Audioqualität bei Radiowiedergabe verschiedener Quellen für Fahrzeuge. Ihre Softwarearchitektur ist getrennt in Benutzeroberfläche (GUI, entwickelt mit PyQt) und Signalverarbeitung. Das Programm bietet umfassende Möglichkeiten Testszenarien zu bearbeiten und auszuführen und so Bewertungen zur Signalqualität zu erhalten. So werden Radiosignale für Fahrzeuge auf verschiedene Störer und deren Ursprünge untersucht und bewertet. Damit kann schon bei der Fahrzeugentwicklung sichergestellt werden, dass das Infotainmentsystem entsprechend abgestimmt ist und keine Kundenbeanstandungen hervorrufen wird. Im Programm werden die Signale in Zeit- und Frequenzbereich verarbeitet, analysiert und evaluiert. Dies geschieht anhand von Signalverarbeitungsprozessen wie Kreuz- oder Auto-Korrelation und Berechnungen von z.B. der SNR. Damit kann ein instrumenteller Bewertungsparameter zur Audioqualität des Fahrzeugradios abgeschätzt werden, der dem Tester bei einer perzeptiven Einschätzung der Signalqualität und Quality of Experience (QoE) als Referenz dienen kann. Die instrumentelle Bewertung der Audioqualität erfolgt dazu über Parameter, wie den Mean Opinion Score (MOS) und einen vorgegebenen Qualitätsindex. Dann hat der Tester die Möglichkeit, eine perzeptive Bewertung anzuschließen, indem er die Signale anhören kann, wie sie in Fahrzeugen klingen. Dafür wurden BRIRs aus Fahrzeugen und verschiedene Hintergrundgeräusche aufgenommen und eingearbeitet. Sie werden als räumliche Filter mit den Signalen gefalten oder additiv hinzugefügt. Als Ergebnis zeigt sich, dass Fahrzeugen keine optimalen Wiedergaberäume darstellen. Daher ist es wichtig das Fahrzeugaudiosystem und Signale dafür anzupassen. Der Fahrzeugwiedergaberaum kann in der Software durch räumliche Filter simuliert werden und so in die Bewertung der Signalqualität der Head Unit-Signale mit einfließen. Dies führt zu einer Senkung des Testaufwands und einer Ersparung unnötiger Tests oder Beanstandungen. Zusätzlich ergibt sich der Qualitätsindex als Referenzwert der instrumentellen Bewertung der Audioqualität und die Möglichkeit zur perzeptiven Evaluation der Fahrzeugradiowiedergabe in Realbedingungen.



Dobmeier, Verena;
Systemidentifikation eines aktiven Schwingungstilgers und Entwurf eines adaptiven Regelkonzepts. - Ilmenau. - 142 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

In der Automobilindustrie ist es ein stetiges Ziel, den Akustik-Komfort von Fahrzeugen zu optimieren. Dieser wird beispielsweise durch Störgeräusche vermindert, die infolge von antriebsstrang- oder fahrbahnerregten Karosserieschwingungen entstehen können. Die vorliegende Masterarbeit beschäftigt sich daher mit der Entwicklung eines aktiven, selbstsensierenden Schwingungstilgers, der diesen Phänomenen entgegenwirken soll. Während bisherige passive Tilger in Form von Feder-Masse-Systemen zahlreiche Nachteile aufweisen und damit beispielsweise einen hohen Abstimmungsaufwand verursachen, bietet der Einsatz aktiver Tilger hingegen einige Vorteile. Neben dem geringeren Gewicht können durch deren Adaptivität die Anpassungsmaßnahmen deutlich reduziert werden. Allerdings treten durch die Notwendigkeit zusätzlicher Sensoren höhere Kosten im Vergleich zu passiven Tilgern auf. Daher verfolgt die Masterarbeit den Ansatz, den Aktor zugleich auch als Sensor in einem Bauteil und damit selbstsensierend zu verwenden. Zur Trennung der Signalanteile müssen in diesem Fall die Aktorübertragungsfunktionen genau bekannt sein. Deshalb bestand der erste Schritt in der Systemidentifikation dieser Übertragungsfunktionen. Die Signaltrennung erfolgte daraufhin anhand eines realitätsnahen Störsignals, das an PKW-Heckklappen auftreten kann. Simulativ wurde zuletzt eine Feedback-Regelung mithilfe adaptiver FIR- und IIR-Filter aufgebaut, die zur Kompensation der detektierten Schwingungen einsetzbar ist. Schließlich fand eine Abschätzung statt, inwiefern sich Amplituden- und Phasenfehler in der Bestimmung der Aktorübertragungsfunktionen auf das Regelergebnis auswirken können.



Wahl, Alexandra;
Design und Prototypenentwicklung eines Editors zum Erstellen von Presets in objektbasierten Audioszenen. - Ilmenau. - 64 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Das Ziel der Bachelorarbeit ist es ein prototypisches Produktionstool für objektbasiertes Audio zu entwerfen und zu implementieren. Objektbasiertes Audio beschreibt die Darstellung von Audioinhalten. Ein Audioobjekt, bestehend aus Metadaten und Audiorohdaten, beinhaltet alle nötigen Informationen, um von einem Renderer der Wiedergabesituation entsprechend prozessiert zu erden. Die fortlaufende Manipulation der Metadaten erlaubt Interaktionen des Konsumenten und der Umgebung mit dem Audioobjekt. Das in dieser Arbeit zu erstellende Produktionstool ermöglicht die Generierung von Audiocontent im 360˚-Video Umfeld. Audioobjekte sollen mit interaktiven Parametern versehen werden können. Das Tool verfügt über ein graphisches 360˚-Editionsumfeld und erzeugt eine Konfigurationsdatei, welche alle für den Renderer relevanten Informationen (Presets) beinhaltet. Zusammen mit den hinterlegten Audiodateien, welche in der Konfigurationsdatei mit den entsprechenden Metadaten verlinkt sind, wird der Rendererprozess gestartet. Das Produktionstool soll als eigenständiger Service in Cloud Computing Systemen integrierbar sein. Hiermit bekommen Kunden die Möglichkeit komplexen objektbasierten Content sogar auf einem schwachen Endgerät, wie Smartphones (in Besonderem in Verbindung mit einer Google Cardboard Brille) oder Tablets, zu erstellen.



Zebelein, Julian;
Features of 4K/UHD contents and relevance for video system technology evaluation. - Ilmenau. - 63 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Diese Arbeit stellt eine neue Methode zur automatischen Evaulierung von Videoqualität im Bereich HD und UHD vor. Dieser Ansatz setzt auf die Extraktion von vier Signal Features: Schärfe, Kontrast, Bewegung und Sättigung. Weiterhin werden inhaltsbasierte Eigenschaften ausgewertet, Gesichter werden erkannt und ein Algorithmus zum Erkennen von auffallenden und herausragenden Bildelementen wird verwendet. Die anfallenden Daten werden von drei unterschiedlichen machinellen Lernverfahren ausgewertet: Der Support Vector Machine, einem Random Forest Klassifikationsverfahren und dem k-nearest neighbor Algorithmus. Der gesamte Prozess wird mit einem eigens entwickelten Datensatz von 165 Testvideos untersucht. Für diesen Datensatz liefert das Random Forest Klassifikationsverfahren die besten Ergebnisse betreffend Accuracy, Precision, Recall und dem F-Maß. Die Visualisierung der Entscheidungsgrenze und die ROC Kurven bestätigen dieses Ergebnis weiterhin. Einige der Beschränkungen können durch den verwendeten Videodatensatz entstanden sein, welcher die Basis für das Klassifikationsverfahren bildet. Es wurde gezeigt, dass dieser Ansatz rentabel und stabil ist und sehr gute Ergebnisse liefert. Jedoch muss der als Basis benutzte Videodatensatz selbst evaluiert werden, da er qualitativ hochwertig und repräsentativ für den jeweiligen Einsatzzweck sein muss.



Selent, Daniel;
Entwurf und Validierung eines perzeptiven Testverfahrens zur analytischen Qualitätsbeurteilung von 4K/UHD-Technologie. - Ilmenau. - 52 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Das Ziel der vorliegenden Masterarbeit war es ein Training für die 4K/UHD-Technologie zu entwickeln, das erfahrene Nutzer zu Expertennutzern ausbildet. Dabei wurden vorhandene Trainings aus dem Audiobereich auf ihre Methodiken untersucht und versucht auf den Videobereich zu übertragen. Erstellt wurde ein Training, basierend auf einem two Forced Alternative Choice Design, das die Attribute Farbsättigung, Framerate, Auflösung und Bitrate trainiert. Anhand der statistischen Auswertung subjektiver Videotests vor und nach den Trainings ist zu erkennen, dass bei den Attributen ein Trainingseffekt stattgefunden hat. Ferner wurde großer Wert auf die Auswahl und Bearbeitung der Stimuli und die Einordnung der Probanden in Profile gelegt. Eine Besonderheit der Stimuli ist, dass diese aus unbekannten Quellen stammen und klassifiziert werden mussten. Die Probandenprofile orientieren sich an den aus dem Audiobereich bekannten Profilen von Bech und Zacharov.



Latus, Julius;
Implementierung von Algorithmen zur Synchronisierung und Verarbeitung von A/V-Signalen mittels FPGA-Schaltungen für die Übertragung in IP-basierten Netzwerken. - Ilmenau. - 101 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

In der Arbeit werden Verfahren zur Synchronisierung von Audio- und Videosignalen im professionellen Studio betrachtet. Hierbei werden periodische Synchronsignale generiert. Deren einzelne Abschnitte werden Bereichen der ebenfalls periodischen Mediensignale zugeordnet. Wird dieses Verhältnis für die Geräte im Studio eingehalten, arbeiten sie synchron zueinander. Die Synchronsignale werden zusammen mit den Audio- und Videodaten in Form von IP-Paketen in einem Netzwerk übertragen. Die Verfahren werden in den Standards IEEE Std 1588 ™-2008, SMPTE ST 2059-1:2015 und SMPTE ST 2059-2:2015 beschrieben. Ziel der Arbeit ist es, eine bestehende Implementierung der Standards an ein Zielsystem anzupassen und zu evaluieren. Die Implementierung liegt in Form von Schaltungen und Treibern für ein Entwicklungsboard mit FPGA vor. Durch die Evaluierung kann beantwortet werden, welche Anforderungen an eine Implementierung der Verfahren bestehen und wie diese in der Praxis erfüllt werden können. Dazu werden theoretische Analysen durchgeführt, mit denen u.a. die benötigte Genauigkeit der Synchronisierung in einem Studio bestimmt wird. Außerdem werden Messungen mit zwei Rechnern durchgeführt, um deren Genauigkeit der Synchronisierung bestimmen zu können. Die Ergebnisse werden mit der Genauigkeit des Referenzdesigns verglichen. Es kann gezeigt werden, dass die benötigten Anforderungen nur dann erfüllt werden können, wenn die zur Synchronisierung benötigten Zeitstempel in Hardware generiert werden. Das Referenzdesign erfüllt diese Anforderung. Es kann außerdem gezeigt werden, dass die Genauigkeit durch die Veränderung von Parametern der Regelschleifen der Geräte beeinflusst werden kann. Daher ist es sinnvoll, bestimmte Bereiche einer Implementierung zur Laufzeit modifizieren zu können. Es ist absehbar, dass im netzwerkbasierten Studio künftig auch Algorithmen für die Überwachung und Steuerung von Geräten eingesetzt werden sollen. Dies spricht ebenfalls für eine flexible Implementierung in einzelnen Bereichen.



Löber, Daniel;
Eine Open-Source-Audioengine für Virtual-Reality-Anwendungen. - Ilmenau. - 58 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Im Kompetenzzentrum Virtual Reality der TU Ilmenau wird in der \gls{cave} ein IOSONO-System verwendet, um räumlichen Klang mittels Wellenfeldsynthese zu erzeugen. Da dies ein poprietäres System ist, sind Anpassungen an der Sounderzeugung oder der Konfiguration nur in begrenztem Rahmen möglich. Der SoundScape Renderer ist ein Open-Source-Projekt zur räumlichen Klangerzeugung. Unterstützte Methoden sind neben dem vector-based amplitude panning auch Wellenfeldsynthese und Ambisonics. In dieser Arbeit wird das Audiosystem der CAVE untersucht um festzustellen, ob es möglich ist den SoundScape Renderer in die bestehenden Systeme zu integrieren. Nötige Änderungen werden herausgearbeitet und umgesetzt. Abgeschlossen wird die Arbeit mit einem Hörversuch, der die beiden Systeme miteinander vergleicht.



Fremerey, Stephan;
Measuring the exploration behaviour of people in omnidirectional videos. - Ilmenau. - 96 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Der Hauptschwerpunkt dieser Arbeit besteht darin, das Erkundungsverhalten von Personen innerhalb von 360˚ Videos zu untersuchen. Hierzu wird im Rahmen der Arbeit ein Framework entwickelt, welches in der Lage ist, die Kopfbewegungen von Personen, die ein Head-Mounted Display (HMD) tragen, zu verfolgen. Das Framework soll auch auf die Daten eines externen Motion Capturing Systems zugreifen können. Ziel der Arbeit ist unter anderem die Untersuchung der Nutzbarkeit und Genauigkeit der ermittelten Daten beider Systeme. Außerdem wird der Einfluss eines Kabels bei Head-Mounted Displays auf das Erkundungsverhalten von Personen untersucht, wobei auch Aspekte bezüglich der Simulationskrankheit beleuchtet werden. Weiterhin wird betrachtet, inwiefern der Inhalt und Häufigkeit der Wiedergabe eines Videos einen Einfluss auf das Erkundungsverhalten von Personen haben. Hierbei wird auch das interindividuelle Verhalten verglichen, wobei untersucht wird, ob ein typisches Sichtfeld bei 360˚ Videos vorhanden ist. Innerhalb des theoretischen Teils werden zuerst Grundlagen bezüglich Kopfbewegungsdaten dargelegt. Hiernach werden Faktoren genannt, die zum Erkundungsverhalten von Personen bei 360˚ Video beitragen können. Außerdem werden verschiedene Methoden zur automatisierten Extraktion des Ansichtsfensters bei 360˚ Video vorgestellt. Weiterhin werden Gründe und Messmethoden der Simulationskrankheit präsentiert. Zum Schluss werden aktuelle HMDs diskutiert. Innerhalb des folgenden Teils werden die Ziele, Anforderungen und Komponenten des Frameworks dargelegt. Hiernach wird das Setup und der Export von Daten des Motion Capturing Systems beschrieben. Danach wird die Architektur des Frameworks erläutert, wobei der Fokus auf die Wiedergabe der 360˚ Videos und synchrone Aufnahme der Daten bei beiden Systemen gelegt wird. Im Folgenden wird die Benutzung des Frameworks beschrieben. Zuletzt werden entwickelte Evaluationsskripte des Frameworks vorgestellt. Im folgenden Teil werden zuerst zwei Studien, welche mittels des Frameworks durchgeführt werden, präsentiert und diskutiert. Im Anschluss daran findet ein Proof of Concept Test statt, bei dem der Fokus auf die Beantwortung der oben genannten Forschungsfragen gelegt wird. Zum Schluss der Arbeit wird eine Anforderungsanalyse durchgeführt. Weiterhin werden mögliche Verbesserungen des Frameworks und Forschungsansätze angeführt.



Pricken, Robin;
Quality aspects of near-end listening enhancement approaches in telecommunication applications. - Ilmenau. - 71 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Um die Sprachverständlichkeit in lauten Umgebungen zu verbessern, wurden in den letzten Jahren viele Ansätze unter dem Namen Near-end-Listening Enhancement (NELE) veröffentlicht. Verschiedene Evaluationen haben sich des Themas angenommen und die Ansätze in umfangreichen Studien miteinander verglichen. Jedoch wurden dabei die Rahmenbedingungen, die sich in der Telekommunikation, einem der Haupteinsatzfelder, ergeben, vernachlässigt. In diesem Einsatzfeld wird das Signal immer auf der Sendeseite codiert und auf der Empfängerseite decodiert, was zu einer hörbaren Verschlechterung des Signals führt. Des Weiteren wurden die Algorithmen meist nur in Bezug auf die Verbesserung der Sprachverständlichkeit getestet. Aus diesem Grund ist wenig über die möglichen Einbußen in der Sprachqualität bei dem Einsatz dieser Algorithmen bekannt. Im Rahmen dieser Masterarbeit wurde der Algorithmus SSDRC von Zorila u.a. implementiert und modifiziert. Die Implementierung und vier weitere NELE Ansätze wurden in einem formalen Hörtest mit Blick auf die Sprachqualität miteinander verglichen. Hierbei wurden verschiedene Störgeräuschszenarien sowie die typische Hörsituation mit in Betracht bezogen. Die häufig eingesetzten Codecs ITU-T Rec. G.711, G.722 und G.726 wurden für die Anwendung auf die Sprachsignale ausgewählt. In den Ergebnissen der Hörtests zeigte sich, dass die meisten Ansätze die Sprachqualität in den untersuchten Störgeräuschsituationen im Vergleich zum Referenzsignal verbessern konnten. Der Anstieg der Sprachqualität zeichnete sich besonders deutlich in Kombination mit dem Breitband-Codec ITU-T Rec. G.722 ab.