Du er ikke logget ind
Beskrivelse
Mit der zunehmenden Leistungsfähigkeit und Verfügbarkeit der Informationstechnologie wurden in den letzten Jahren, insbesondere in der Informatik und der künstlichen Intelligenz, rechnerbasierte quantitative Methoden entwickelt, die das traditionelle statistische Instrumentarium ergänzen und zum Teil auch ersetzen. Hierzu zählen vor allem die Verfahren der Support-Vektor-Maschinen und der künstlichen neuronalen Netze. Diese Methoden der sogenannten maschinellen Lerntheorie sind durch eine möglichst geringe Anzahl von a-priori-Annahmen bzw. -Modellspezifikationen gekennzeichnet, so dass die Möglichkeiten der Abbildung und Erklärung ökonomischer Zusammenhänge gegenüber den klassischen (parametrischen) statistischen und ökonometrischen Methoden beträchtlich erweitert werden.Das vorliegende Buch greift die Methodik der maschinellen Lerntheorie auf und beschreibt sie in einer einheitlichen konventionellen Notation klassischer statistischer und ökonometrischer Verfahren. Die Leistungsfähigkeit der Methoden wird anhand einer praktischen Anwendung im Bereich der Solvenz- bzw. Risikobewertung von Unternehmen beurteilt und verglichen, was vor dem Hintergrund der Kapitalmarktrichtlinien von ''Basel II'' sowie einer globalen finanzwirtschaftlichen Verflechtung von risikobehafteten Kreditgeschäften aktuelle betriebswirtschaftliche und wirtschaftspolitische Relevanz besitzt.Einen weiteren Aspekt im Rahmen des Erfolges eines praktischen Data Mining stellt die Qualität der für die Analyse zur Verfügung stehenden Daten dar. In dem vorliegenden Buch wird ein Konzept für ein statistisches Datenqualitätsmanagement entwickelt und mit Methoden der klassischen Statistik sowie der statistischen Lerntheorie verbunden. Es wird untersucht, ob die in großen Datenmengen vorhandenen Strukturen durch ein möglichst automatisiertes Datenqualitätsmanagement erfolgreicher analysiert, bereinigt und anschließend modelliert werden können.