Abschlussarbeiten

Anzahl der Treffer: 206
Erstellt: Sun, 30 Jun 2024 14:00:05 +0200 in 0.1226 sec


Betz, Lorenz;
Compensation of nonlinear distortion in high frequency waveguides. - Ilmenau. - 139 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Die Arbeit behandelt Nichtlinearitäten in den Kompressionstreibern und Schallführungen von Hochton-Hornlautsprechern. Neben den elektrischen und mechanischen Ursachen entstehen nichtlineare Verzerrungen aufgrund der adiabatischen Eigenschaften von Luft und den hohen Schalldrücken im Inneren der Lautsprecher. Dies bewirkt eine Verschlechterung der Klangqualität. Da diese Verzerrungen prinzipbedingt sind, sind klanglichen Defizite unausweichlich mit Hochton-Hornlautsprechern verbunden. Zwar gibt es Veröffentlichungen über die Kompensation von Nichtlinearitäten auf der Basis einer elektrischen Vorverzerrung des Anregungssignals, jedoch wurde keine der Ansätze bislang in ein Produkt integriert. Diese Arbeit gibt einen Überblick über die verschiedenen Ursachen von Nichtlinearitäten und über die Modellbildung und Kompensation dieser nach dem Stand der Technik. Außerdem wird das nichtlineare Verhalten von aktuellen Hochton-Hornlautsprechern gemessen und neben klassischen Methoden anhand einer neuartigen Darstellungsform mittels Lissajous-Figuren aufgezeigt. Auf Basis dieser Darstellung wird eine Filterstruktur entwickelt, die es ermöglicht, Effekte der adiabatischen Kompression zu reduzieren. Der Kompensationsansatz wird anhand von Messungen mit Ein- und Zweitonsignalen evaluiert. Abhängig vom verwendeten Lautsprecher kann durch die Vorverzerrung die gesamte harmonische Verzerrung innerhalb von 950 Hz bis 10 kHz im Mittel knapp um den Faktor zwei reduziert werden. Dadurch soll die Klangqualität des Lautsprechers gesteigert und der maximale Schalldruckpegel erhöht werden.



Heinl, Tobias;
Methods for maintaining consistent target loudness for user-controlled component-balancing in diverse playback environments. - Ilmenau. - 100 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Die nächste Generation von Audio-Codecs wird es dem Nutzer ermöglichen, die Mix-Zusammensetzung von Sendeinhalten innerhalb definierter Limits zu anzupassen. Zugleich wurde innerhalb der letzten Jahre eine Vielzahl an Empfehlungen und Methoden zur Herstellung von Lautheits-Konsistenz über den Verlauf mehrerer Segmente eines Programms eingeführt. Ziel dieser Masterarbeit ist die Untersuchung von Methoden, mit denen die Einhaltung eines durchgängigen Lautheits-Niveaus auch dann gewährleistet werden kann, wenn das Mischverhältnis der Inhalte empfängerseitig an die Vorlieben des jeweiligen Konsumenten angepasst wird. Der entwickelte Lösungsansatz bestimmt die Lautheit des Programmsignals auf Basis der Lautheiten der einzelnen Mix-Komponenten. Die entsprechenden Werte können dabei entweder geschätzt oder gemessen vorliegen. Die Normalisierungsfaktoren werden so berechnet, dass die Lautheit nach Mix-Anpassung durch den Nutzer soweit möglich identisch zur Lautheit vor der Anpassung bleibt. Insgesamt wurden vier verschiedene Verfahren implementiert und anschließend im Rahmen eines interaktiven Hörversuchs evaluiert. Die beiden Lautheits-gesteuerten Verfahren lieferten Ergebnisse innerhalb des zulässigen Toleranzbereiches für Lautheits-Fluktuationen und schnitten ähnlich gut ab wie eine bereits existierende Lösung, bei der das bereits gemischte Ausgangssignal unabhängig von zuvor erzeugten Lautheits-Metadaten geregelt wird. Letzteres kann jedoch eine Verringerung des Dynamikumfangs mit sich bringen und verursacht einen verhältnismäßig hohen Rechenaufwand. Die Untersuchung hat deutlich gemacht, dass die Einhaltung eines konsistenten Lautheits-Niveaus nur schwer oder mitunter nicht möglich ist, wenn die Laustärke von Dialog als dominanter Anteil der Mischung gedämpft wird und die entsprechenden Hintergrund-Geräusche einen hohen Dynamikumfang aufweisen. Obgleich regelmäßige Aktualisierungen der Mix-Komponenten-Lautheit ein gewisses Maß an Robustheit gegen unvorhergesehene Schwankungen gewährleisten, kann zufriedenstellendes Verhalten auch mit statischen, vordefinierten Werten erreicht werden. In diesem Fall muss die Einhaltung der entsprechenden Grenzwerte für die einzelnen Komponenten senderseitig überwacht und sichergestellt werden.



Daschner, Anna-Maria;
Hochbandbreitige IP-Signale in virtualisierten Umgebungen. - 149 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Im Zuge der zukünftigen Einführung von Ultra High Definition Television (UHDTV) zeichnet sich im Broadcastbereich innerhalb der TV-Prozesskette ein Wandel in Bezug auf die Übertragungstechnologie ab. Die damit verbundene Übertragung mit hohen Datenraten soll anstatt mit dem etablierten Serial Digital Interface (SDI) mittels klassischer IT-Hardware über das Internet Protocol (IP) bewerkstelligt werden. Durch eine Verlagerung der bestehenden Infrastrukturen in ein Datenzentrum gewinnen Rundfunkanstalten eine höhere Flexibilität und erhalten zudem die Möglichkeit ihre Systeme zu virtualisieren und in eine Cloud zu verschieben. Diverse Forschungsgruppen zeigen jedoch, dass die derzeitig implementierte Strategie zur Paketverarbeitung im Standard-Betriebssystemkernel beim Empfang und Versand von Netzwerkdaten mit hohen Datenpaketraten eine schlechte Performance aufweist. Darüber hinaus kommt bei einer Virtualisierung ein zusätzlicher Overhead hinzu, der ebenfalls gehandhabt werden muss. Die vorliegende Masterarbeit beschäftigt sich daher mit der Verwendung virtualisierter Commercial-off-the-shelf (COTS)-Hardware für den Empfang hochbandbreitiger IP-Signale, die Audio/Video (AV)-Daten transportieren. Hierfür wird nach einer Betrachtung von Virtualisierung und den Möglichkeiten für eine High-Speed-Verarbeitung von Netzwerkdatenverkehr ein Lösungsansatz für ein virtualisiertes Monitoringsystem ausgewählt, welcher jeweils auf einem Typ-1- und Typ-2-Hypervisor getestet und ausgewertet wird. Schließlich kann gezeigt werden, dass eine fehlerfreie AV-Datenübertragung mit einer Bandbreite von bis zu 20 Gbit/s auf virtualisierter COTS-Hardware zu erreichen ist.



Heidtmann, Jan;
IP-basierte Übertragungen von Audio- und Videodaten in Playoutumgebungen. - 110 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

In der Broadcastindustrie nimmt die Verwendung von IT-Komponenten zu. Mit den zur Verfügung stehenden Datenraten bei Ethernet sind Echtzeitübertragungen von unkomprimiertem Video und Audio über solche Netze und Infrastrukturen möglich. Verschiedene Bereiche im Broadcastumfeld stellen jedoch unterschiedliche Anforderungen an diese Übertragungstechnologien. Diese Arbeit befasst sich mit dem Einsatz von IP-Übertragungstechnologien in Playoutumgebungen. Dazu werden in einer Analyse die speziellen Anforderungen innerhalb einer Playoutumgebung untersucht. Die möglichen Übertragungstechnologien werden in Funktionsumfang und Funktionsweise betrachtet, wobei auch Komprimierungsmöglichkeiten und zukünftige Standards Berücksichtigung finden. Für die Untersuchung werden drei Playout-Modelle vorgestellt, an denen die Voraussetzungen, die grundsätzliche Funktionsweise, Veränderungen der Systemstruktur durch die neuen Übertragungsmöglichkeiten sowie die Wirtschaftlichkeit analysiert und bewertet werden.



Pappenheim, Artur;
Entwicklung eines Frameworks zur automatisierten Bildanalyse von Videoclips. - 91 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Neben der Anwendung in der Postproduktion für Film und Fernsehen, gewinnt die automatisierte und dateibasierte Qualitätskontrolle von Video- und Audiodaten auch im Testprozess bei der Kameraentwicklung in der Firma ARRI zunehmend an Bedeutung. Das Ziel dieser Arbeit ist es ein grundlegendes Framework für eine solche automatisierte Bildanalyse zu entwickeln, welches in ein Clipanalyse-Framework integriert werden soll. Dabei werden Schnittstellen implementiert, über die es möglich ist, die Essenz von Videodaten zu analysieren. Zunächst werden gängige Werkzeuge und Metriken vorgestellt, die eine objektive Aussage über die Qualität und Komplexität von einem komprimiertem Videoclip bzw. dessen Bilddaten ermöglichen. Anschließend werden Videocodecs vorgestellt, die zur Komprimierung von Bildsequenzen in den ARRI-Kamerasystemen verwendet werden. Weiter werden verschiedene Decoder-Softwares in Bezug auf bestimmte Anforderungen und Kriterien analysiert und ausgewertet. Mithilfe einer Nutzwertanalyse wird eine Decoder-Software ausgewählt, die in das Framework integriert wird. Das Konzept und Design des implementieren Bildanalyse-Frameworks wird im Anschluss beschrieben. Danach wird das implementierte Framework anhand einer Freeze-Frame Detektion als beispielhafte Bildanalysefunktion validiert. Die Analyse der Decoder-Softwares ergibt, dass sich das Multimedia-Framework mpeg in diesem Kontext am besten für das Bildanalyse-Framework und für die Decodierung von Videoclips eignet. Die Validierung zeigt, dass mit dem Bildanalyse-Framework zuverlässig Freeze-Frame Artefakte detektiert werden können. Mit dem Konzept eines Ringbuers wird eine Struktur geschaffen, mit der es möglich ist, das Framework um weitere Module zur automatisierten Bildanalyse zu erweitern.



Lembach, Johann;
Detection of dynamic pixel defects in digital images. - 91 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Modern digital high-end cameras use CMOS sensors to capture images on a pixel array. Besides thermal and shot noise, impulsive noise, in the form of pixel defects, degrade the image quality to a large degree. Single pixels or clusters of pixels that behave significantly different than their surroundings are especially annoying in video sequences. They can attract the viewers attention and distract them from the important image content. Thus they need to be detected and removed during the recording process. The challenge of a detection method is to find a way of separating defective pixels from real image structure. This problem is addressed in this thesis. The author presents two different noise models for dynamic pixel defects that are used for evaluations. The first model is based on the standard Salt & Pepper noise, the second one uses more realistic data about noise distributions in real cameras. A selection of algorithms from the literature is chosen and compared. Optimized methods, developed by the author, are introduced and evaluated as well. Objective results and visual inspection show that the methods achieve a good performance in finding the defects for both noise types. The improvements introduced by the author can help to further enhance the performance while at the same time keeping the complexity low. Depending on the type of pixel defects, the detection can be a very challenging task. The author shows that different methods are suitable for different types of defects. The approaches presented in the thesis can be used for further refinements and evaluations.



Schubert, Anton;
Crowdsourced eye tracking based on WebRTC. - 54 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

The goal of the thesis is measuring visual attention for users watching videos in a crowdsourcing context. For this purpose an existing eyetracking platform is improved upon and a new video quality test introduced. It is used to show video samples to participants and measure their visual attention using the framework. The method employed is used in a crowdsourcing test on the microworkers site. The fixations from the eyetracking are transformed to saliency maps and compared to a ground truth from a previous experiment using KL-divergence. The results from the video quality test do not match those from the ground truth due to low fixation prediction accuracy. However general trends such as visual attention on the center/top/right/bottom/left parts of the screen can be derived from the data. The calibration approach with artificial calibration points does not have a high enough accuracy to improve the overall prediction quality, but has the main benefit of working without conscious user action in parts of the experiment where this might interrupt the user.



Aly, Alexander;
Integration von adaptiven Funktionen in ein Fahrzeug-Infotainment-System. - 83 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Moderne Fahrzeug-Infotainment-Systeme (FIS) bieten dem Nutzer in den Bereichen Radio, Medien, Navigation oder Telefonie eine große Menge an Funktionen und Einstellungen. Weiterhin kann der Fahrer auf Online-Informationen wie Nachrichten,Wetterdaten oder Online-Musikquellen zugreifen. Die Vielzahl an Funktionen und Einstellungsmöglichkeiten darf den Fahrer jedoch nicht überfordern und vom Verkehrsgeschehen ablenken. Besonders in Fahrsituationen, die eine hohe Konzentration erfordern, ist höchste Aufmerksamkeit auf die Fahrsituation geboten. Die Adaption der Benutzerschnittstelle im FIS stellt einen Ansatz zur Reduzierung der Fahrerablenkung dar. Hierbei wird die Darstellung von Funktionen und Informationen an Eigenschaften des Nutzers oder die entsprechende Fahrsituation angepasst. Zur Realisierung werden Bedienmuster und Präferenzen des Fahrers in einem persönlichen Profil hinterlegt, welches das System durch Analyse seines Nutzerverhaltens ständig aktualisiert. Nutzereigenschaften wie Interessen oder die Expertise werden dabei mittels Algorithmen aus vergangenen Interaktionen des Nutzers abgeleitet. Diese Arbeit befasst sich mit der Integration von adaptiven Funktionen in ein Fahrzeug-Infotainment-System zur Reduktion der Fahrerablenkung. Dafür werden die Grundlagen der Adaption interaktiver Systeme sowie der Prozess der Benutzermodellierung und Adaptionsausführung erläutert. Weiterhin werden bekannte Adaptionsmodelle und Anwendungsgebiete vorgestellt. Anschließend werden geeignete Anpassungsmöglichkeiten und Verfahren für eine Adaption an die individuellen Nutzereigenschaften sowie die aktuelle Fahrsituation ermittelt. Dabei liegt ein Schwerpunkt auf der Suche nach adaptierbaren Elementen und Funktionen sowie potentiellen Ablenkungsproblemen. Neben der Analyse von Anpassungsmöglichkeiten spielt auch die Frage nach einer praktikablen Integration von adaptiven Funktionen in ein FIS mit angemessenem Aufwand eine Rolle. Dafür wurde im Rahmen dieser Arbeit ein Framework entwickelt, das sich aus Komponenten der Benutzermodellierung und Adaptionsausführung zusammensetzt. Mit Hilfe des Frameworks ist es möglich, die Benutzerschnittstelle eines FIS an beliebige Nutzereigenschaften und unterschiedlichste Fahrsituationen anzupassen. Die Umsetzbarkeit des Frameworks wird durch verschiedenen Anwendungsfällen an einer prototypischen FIS-Benutzerschnittstelle, welche auf Web-Technologien basiert, nachgewiesen.



Herber, Philipp;
Implementierung einer Gitarrensteuerung auf Basis des Audio-Video-Bridging-Netzwerkstandards. - 75 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Die IEEE Audio-/Video-Bridging (AVB) Protokollfamilie beschreibt die synchronisierte und priorisierte Übertragung von Audio-/Videodatenströmen und Steuerdaten in lokalen Netzwerken. Diese Arbeit beleuchtet den Einsatz eines AVB Netzwerkes für elektrische Gitarren und deren Steuerung. Eine beispielhafte Implementierung zur Umschaltung von Tonabnehmern demonstriert eine Anwendung des P1722.1 Standards (AVDECC) zur Gerätesteuerung. Es wird zunächst eine Übersicht über die Gitarrentechnik und die verwendeten Netzwerkprotokolle zur Übertragung der Audiodatenströme und Steuerdaten gegeben. Das Konzept der Umschaltung wird aus den dargestellten Gegebenheiten heraus abgeleitet. Auf diesen Kentnissen aufbauend erfolgt die Beschreibung der Umsetzung. Die Funktionalität der Umschaltung wird ausgewertet und der Weg der Implementierung aufgezeigt. Abschließend wird die implementierte Lösung evaluiert und ein Ausblick auf weitere Anwendungsmöglichkeiten gegeben.



Meißner, Henri;
Implementierung eines AVDECC Controllers in die graphische Entwicklungsumgebung Max. - 104 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Systeme nach den Audio Video Bridging Standards erlangen im professionellen AV Markt zunehmend an Bedeutung, da sie die zeitsensitive Übertragung und Verteilung von Audio- und Videosignalen über Ethernet-Strecken erlauben. Da die Apple Macintosh Computer diese Standards auch unterstützen, können sie in Kombination mit einer geeigneten Software, wie der graphischen Entwicklungsumgebung Max von Cycling '74, als flexible und leistungsstarke Audiosignalverarbeitungssysteme im AVB Netzwerk eingesetzt werden. Allerdings fehlt der Kombination die Unterstützung des Audio Video Discovery, Enumeration, Connection Management and Control Protocol Standards. Dieser Standard definiert Datenstrukturen, Mechanismen und Nachrichtenformate zur Beschreibung, Konfiguration und Steuerung von AVB Geräten und Strömen. Es wird die Erstellung mehrerer Erweiterungen für Max beschrieben, die den Zugriff auf Bestandteile des AVB Netzwerkes über das AVDECC Protokoll erlauben. Die Implementierung eines AVDECC Controllers dient der Erkennung von AVB Geräten und die Sammlung und Bereitstellung von Informationen über deren Aufbau. Dies ermöglicht die Erstellung von Oberflächen zur Steuerung und Verbindungsverwaltung in Max. Die Implementierung eines AVDECC Entitys erlaubt die Bereitstellung ausgewählter Parameter und Elemente in Max zur Steuerung durch andere Controller.