Studentinnen und Studenten hören eine Vorlesung im Hörsaal, zwei Laptops sind zu sehenTU Ilmenau / Michael Reichel (ari)

Lehre

Unsere Lehrveranstaltungen richten sich sowohl an die Studierenden der Studienrichtung Mathematik als auch an die Studierenden der Studienrichtungen Informatik, Technische Physik sowie der Ingenieur-Studiengänge.

Studienabschlussarbeiten

Bitte beachten Sie, dass die Hochschulbibliographie den Datenstand 31.07.2024 hat.
Alle neueren Einträge finden Sie in der Universitätsbibliographie der Technischen Universität Ilmenau (TUUniBib).

Anzahl der Treffer: 53
Erstellt: Thu, 26 Sep 2024 22:06:41 +0200 in 0.0841 sec


Krauße, Claudia;
Dichtefunktionsbestimmung zur Korngrößenverteilung im Zement. - 86 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2010

Diese Arbeit dient der Unterstützung des DFG-geförderten Forschungsprojekts "Dynamische Korngrößenmessungen zur Verfolgung des Hydratationsverlaufs von Zementen im frühen Stadium". Schwerpunkt der Arbeit ist die Ermittlung einer Dichtefunktion, welche die gegebenen Messdaten hinreichend genau wiedergibt. Hierbei werden bereits bekannte Methoden aus der Verfahrenstechnik (Potenzverteilung, RRSB-Verteilung und Logarithmische Normalverteilung) untersucht und auch andere bisher nicht getestete Verteilungen (Weibullverteilung, gestutzte Verteilung, Mischverteilung) auf ihre Eignung geprüft. Für den Zeitpunkt t=0 Minuten ergibt sich keine zufriedenstellende Approximation der Messwerte. Für Zeiten größer t=0 Minuten können jedoch die Messwerte mittels einer vierkomponentigen Mischverteilung aus logarithmischen Normalverteilungen hinreichend genau angenähert werden.



Tack, Claudia;
Angewandte Credibility-Verfahren in der Versicherungswirtschaft. - 171 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2010

Meine Diplomarbeit ist eine Übersetztung vom Englischen ins Deutsche von vier Kapiteln der gleichnamigen Monographie von R. Kaas, D. R. Dannenburg und M. J. Goovaerts. Dabei habe ich zusätzlich Beweise im Text ausgeführt und die zu jedem Kapitel gestellten Aufgaben gelöst. In der Praxis muss oft eine Prämie für eine Gruppe von Versicherungsverträgen bestimmt werden, bei der nur eine begrenzte Erfahrung über die einzelne Gruppe von Verträgen verfügbar ist, aber dafür viel Erfahrung über andere, mehr oder weniger ähnliche, Verträge. Um daraus eine optimale Credibility-Prämie zu bekommen, betrachten wir ein gewichtetes Mittel z_jX_j+(1-z_j)X mit dem Gesamtmittelwert X aller Daten (Kollektivprämie), den Schadenmittelwerten X_j für jede Gruppe j als Individualprämien und dem Credibility-Faktor z_j , der die Glaubwürdigkeit der individuellen Erfahrung von Gruppe j beschreibt. Je nach Voraussetzungen gibt es Modelle, wie das balanzierte Bühlmann- oder Bühlmann-Straub-Modell, um den homogenen und inhomogenen Credibility-Schätzer zu bestimmen. Ebenso wird ein allgemeines Modell mit invertierter Kovarianzmatrix betrachtet, aus dem sich die speziellen Modelle herleiten lassen. Zum Schluss wird der Fall untersucht, wenn der Schätzer nicht als linear vorausgesetzt ist.



Pöppich, Emanuel;
Evolutionäre Algorithmen zur Lösung von restringierten Vektoroptimierungsproblemen. - 46 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2009

Restringierte Vektoroptimierungsprobleme sind Probleme, die mehrere Zielfunktionen und Restriktionen besitzen. Sie treten in verschiedenen Bereichen wie z.B. das Finanz- und Ingenieurwesen auf. Um diese Art von Problemen zu lösen gibt es mehrere Verfahren, wobei in dieser Arbeit speziell die evolutionären Algorithmen untersucht wurden. Zunächst wird Theorie zu Vektoroptimierungsproblemen erläutert. Anschließend werden evolutionäre Algorithmen und deren Berücksichtigung von Restriktionen vorgestellt. Zuletzt werden Beispiele gerechnet.



Seeger, Stefan;
Statistische Analysen der Festbetoneigenschaften bei der Produktion von Betonsteinen. - 118 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2009

Die vorliegende Arbeit befasst sich mit statistischen Analysen der Festbetoneigenschaften (Feucht- und Trockenmasse, Dichte, Druckfestigkeit und Steinhöhe) von Betonsteine. Im Rahmen der Theorie des Linearen Modells der mathematischen Statistik wird ein varianzanalytisches Modell vorgeschlagen. In diesem Modell werden mögliche Mittelwerteinflüsse auf die Festbetonmerkmale, welche durch die Zeilen- und Spaltenlage der Steine innerhalb der Produktionsform sowie die Zugehörigkeit der Betonsteine zu verschiedenen Produktionszyklen verursacht werden, geprüft. Unter Berücksichtigung möglicher Wechselwirkungen werden die benötigten Nebenbedingungen mit Hilfe einer Reparametrisierungsmatrix angegeben. Es zeigt sich, dass sich die Nebenbedingungen direkt in die Normalengleichungen des Modells einbeziehen lassen. Dieses Vorgehen ermöglicht eine vereinfachte Bestimmung des MQ-Schätzers. Des Weiteren lässt sich der Stichprobenvektor orthogonal zerlegen, was den Beweis der Streuungszerlegung und der Kovariationszerlegung sowie die Angabe der relevanten Hypothesenräume mit ihren Dimensionen ermöglicht. Mit Hilfe der Streuungszerlegung werden für die Produktion relevante Streuparameter angegeben. Diese relativen Streuparameter ermöglichen eine Bewertung der Produktion hinsichtlich der Homogenität der Festbetonmerkmale. Des Weiteren eignen sich diese Parameter zur Bewertung von Änderungen im Produktionsablauf. Mit Hilfe der Kovariationszerlegung und der Streuungszerlegung wird eine additive Zerlegung des empirischen Korrelationskoeffizienten zwischen zwei Merkmalen, welche durch das gleiche varianzanalytische Modell dargestellt werden, gezeigt. Diese Zerlegung ermöglicht eine differenziertere Betrachtungsweise der Korrelationsstruktur der Festbetonmerkmale. Die Analysen univariater Daten, beginnend mit der Deskription über die Exploration bis zur Anwendung inferenzstatistischen Verfahren, können durch eine in R entwickelte Funktion (univariat) durchgeführt werden. Die Lage der Steine innerhalb der Produktionsform und innerhalb eines Produktionszyklus übt einen signifikanten Mittelwerteinfluss auf die Festbetonmerkmale der Steine aus. Des Weiteren führen diese Einflüsse dazu, dass der empirische Korrelationskoeffizient zwischen zwei Merkmalen als Schätzung für die tatsächliche Korrelation nicht geeignet ist.



Freytag, Sebastian;
Eine Einführung in Copulas. - 336 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2009

Übersetzung der gleichnamigen Monographie von R. B. Nelsen, Ausarbeitung angedeuteter Beweise und Lösung ausgewählter Aufgaben.



Wang, Jingjing;
Optimale Raten bei Modalwertschätzung von nichtparametrischen Regressionsmodellen im glatten Fall des Fixed Design Modells. - 55 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2009

In dieser Arbeit wird die Schätzung des Modalwertes einer nichtparametrischen Regression behandelt. Der Modalwert wird im Vergleich zu dem arithmetischen Mittel oder dem Median von fehlerhaften Daten nicht so stark verzerrt. Weiterhin wird gezeigt, unter welchen Voraussetzungen die normalerweise verwendeten Kernschätzer wie der Gasser-Müller-, Nadaraya-Watson und der Priestley-Chao-Kernschätzer die gefundenen Raten erzielen können.



Reinke, Stefanie;
Schätzung eines Graustufenbildes mit Methoden der multivariaten nichtparametrischen Regression. - 68 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2009

Ein typisches Problem der Bildanalyse ist das Rekonstruieren eines Bildes aus verrauschten Daten. Thema dieser Diplomarbeit ist die Schätzung eines Graustufenbildes mit Methoden der multivariaten, nichtparametrischen Regression. Neben der Darstellung eines Modells und Schätzers, liegt der Fokus dieser Arbeit auf der detaillierten Herleitung einer asymptotischen oberen Schranke des Schätzers. Es kommt ein Zwei-Schritt-Schätzer zum Einsatz, dabei folgt nach einer einfachen Klassifikation, die Anwendung eines lokalen Polynom-Schätzers im Mehrdimensionalen.



Christiani, Daniela;
Vergleich der Behandlung von Mehr-/Mindermengen im analytischen und synthetischen Verfahren anhand von Daten eines realen Elektrizitätsverteilnetzes. - 90 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2008

Zielstellung dieser Arbeit ist es, die Frage zu klären, welches von 2 Verfahren für die Belieferung und Abrechnung von Strom für Kleinkunden aus Sicht eines Verteilnetzbetreibers besser geeignet ist. Durch die Erläuterung des Netznutzungsmodells in der Einleitung werden zunächst wichtige Zusammenhänge am Strommarkt deutlich. Im Anschluss werden die einzelnen Verfahren vorgestellt und mit Daten eines speziellen Geschäftsjahres in Excel durchgerechnet. Im 3. Kapitel wurden verschiedene Situationen und die Auswirkungen auf beide Verfahren betrachtet. Dabei ist deutlich geworden, dass im synthetischen Verfahren das Risiko besteht, dass Kosten, die durch Prognoseungenauigkeiten entstehen, nicht genau auf die Verursacher umgewälzt werden. Dieses Risiko tritt im analytischen Verfahren nicht ein. Durch verschiedene Fallbetrachtungen sind die Fälle herausgearbeitet worden, in denen für den Verteilnetzbetreiber Gewinne oder Verluste eintreten. Die Größenordnung der Verluste und Gewinne war letztendlich ausschlaggebend, dass sich das analytische Verfahren aus Sicht des Verteilnetzbetreibers als das bessere herausgestellt hat.



Dünnbier, Anne;
Konfidenzintervalle für Modalwerte. - 44 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2008

Die Diplomarbeit befasst sich mit universalen Konfidenzintervallen für den Modalwert einer eindimensionalen stetigen Verteilung. Diese Konfidenzintervalle werden bestimmt als geeignete Umgebungen der Maximalstellen von Dichteschätzern. Die Methode beruht auf allgemeinen Resultaten von G. Pflug und S. Vogel über Konfidenzmengen für Lösungen von Entscheidungsproblemen und liefert für jeden Stichprobenumfang Intervalle, die den Modalwert mit einer vorgegebenen Genauigkeit überdecken.- Zunächst werden die Aussagen bewiesen, auf denen die Methode aufbaut. Anschließend werden die Voraussetzungen dieser Aussagen für Modalwertschätzer überprüft, die auf Kernschätzern für die Dichtefunktion beruhen. Zum Nachweis der benötigten Konvergenzraten und "Tail-Behavior-Funktionen" für die gleichmäßige Konvergenz in Wahrscheinlichkeit der Dichteschätzer werden Maßkonzentrationsaussagen eingesetzt.



Vollrath, Oliver;
Schätzung in scheinbar unverbundenen Regressionsmodellen unter besonderer Berücksichtigung orthogonaler Regressoren. - 160 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2007

In meiner Diplomarbeit geht es um die Schätzung in Scheinbar unverbundenen Regressionsmodellen (SUR). Nach einer Einführung in die SUR- Modelle mit M Regressionsgleichungen beschäftigen wir uns mit dem Problem, des effizienten Schätzens der Regressionskoeffizienten bei unbekannter Kovarianzmatrix. Dazu wird zunächst ein allgemeiner SUR- bzw. FGLS- Schätzer betrachtet und im Anschluss zwei spezielle Ausprägungen dieses Schätzers definiert. Zum einen der SUR-Schätzer mit Restriktionen, kurz SURR und zum anderen jener ohne Restriktionen genannt SUUR. - Nach diesen einführenden Betrachtungen reduzieren wir unser SUR Modell auf ein SUR- Modell mit zwei Gleichungen und nennen es SUR2. Es werden in SUR2 allgemeine SUR- bzw. FGLS- Schätzer für die Regressionskoeffizienten hergeleitet und diese Konzepte auf die SUUR und SURR Schätzer übertragen. Alsdann wird das Modell SUR2 weiter vereinfacht werden, d.h. wir untersuchen dann ein Zwei- Gleichungs- SUR Modell mit orthogonalen Regressoren und nennen dieses SUR3. Jenes SUR3 Modell und die Schätzung darin nimmt den Hauptteil der Diplomarbeit ein. Dazu werden in aufwändigen Rechnungen Kovarianzmatrizen der SUUR und SURR-Schätzer im Modell SUR3 hergeleitet. Damit sind Effizienzvergleiche zwischen diesen Schätzern möglich und werden ausführlich diskutiert. Danach wird die Stichprobenverteilung des SUUR- Schätzers im Mittelpunkt stehen. Genauer wird eine Dichtefunktion des zufälligen Schätzfehlers des SUUR Schätzers bestimmt. Es wird sich zeigen, dass diese Dichte bei großen Stichprobenumfängen gegen die Normalverteilung strebt. - Welche Bedeutung SUR- Modelle und SUR-Schätzungen in der Praxis haben, wird zum Ende der Diplomarbeit an einem kleinen Beispiel aus Grunfelds Investitionstheorie illustriert.