Signal- und Mustererkennung, Parameter- und Signalschätzung /
First Statement of Responsibility
Kristian Kroschel, Gerhard Rigoll, Björn Schuller.
EDITION STATEMENT
Edition Statement
5. Aufl.
.PUBLICATION, DISTRIBUTION, ETC
Place of Publication, Distribution, etc.
Berlin :
Name of Publisher, Distributor, etc.
Springer,
Date of Publication, Distribution, etc.
2011.
PHYSICAL DESCRIPTION
Specific Material Designation and Extent of Item
1 online resource (xii, 372 pages) :
Other Physical Details
illustrations
INTERNAL BIBLIOGRAPHIES/INDEXES NOTE
Text of Note
Includes bibliographical references and index.
CONTENTS NOTE
Text of Note
""Vorwort""; ""Inhaltsverzeichnis""; ""Kapitel 1 Detektion und Estimation""; ""1.1 Detektion""; ""1.1.1 Signalerkennung""; ""1.1.2 Mustererkennung""; ""1.2 Estimation""; ""1.2.1 ParameterschÃ?tzung""; ""1.2.2 SignalschÃ?tzung""; ""1.3 EntwurfsansÃ?tze""; ""Kapitel 2 Grundbegriffe der Statistik""; ""2.1 Zufallsvariable""; ""2.2 Zufallsprozesse""; ""2.3 Transformationen""; ""2.3.1 Transformation von Zufallsvariablen""; ""2.3.2 Transformation von Prozessen""; ""Kapitel 3 Signaldarstellung durch Vektoren""; ""3.1 Vektordarstellung determinierter Signale""
Text of Note
""3.2 Darstellung von Prozessen durch Vektoren""""3.2.1 Diskrete Karhunen-LoÃ?ve-Transformation""; ""3.2.2 Diskrete Cosinus-Transformation""; ""3.3 Darstellung von instationÃ?ren Prozessen""; ""3.3.1 Definition der Wavelet-Transformation""; ""3.3.2 Diskrete Wavelet-Transformation""; ""3.3.3 Basisfunktionen fÃ?r die Wavelet-Transformation""; ""3.3.4 Wavelet-Transformation mit Hilfe von FilterbÃ?nken""; ""3.3.5 Beispiel fÃ?r ein Analysefilter""; ""3.3.6 Implementation der diskreten Wavelet-Transformation""; ""3.3.7 Gabor-Transformation""; ""3.3.8 Diskrete Gabor-Transformation""
Text of Note
""3.3.9 Berechnung der Diskreten Gabor-Transformation""""3.4 Vektordarstellung von Signalen""; ""3.4.1 Analyse und Synthese von Signalen""; ""3.4.2 Gram-Schmidt-Verfahren""; ""3.5 Irrelevante Information""; ""3.6 VektorkanÃ?le""; ""3.7 UnabhÃ?ngigkeitsanalyse und Blinde Quellentrennung""; ""Kapitel 4 Signalund Mustererkennung""; ""4.1 BinÃ?re Detektion""; ""4.1.1 Bayes-Kriterium""; ""4.1.2 Maximum-a-posteriori-Kriterium (MAP)""; ""4.1.3 Neyman-Pearson-Kriterium""; ""4.1.4 Der Likelihood-VerhÃ?ltnis-Test""; ""4.1.5 EmpfÃ?ngerarbeitscharakteristik""
Text of Note
""4.1.6 Entscheidungsr�ume bei bin�rer Detektion""""4.1.7 R�ckweisung""; ""4.2 Multiple Detektion""; ""4.2.1 MAP-Prinzip f�r multiple Detektion""; ""4.2.2 Entscheidungsregel bei Gaußprozessen""; ""4.2.3 Wahl der Signalvektoren""; ""4.2.4 Signalvektorkonfigurationen""; ""4.2.5 Absch�tzung der Fehlerwahrscheinlichkeit""; ""4.2.6 Vergleich der Signalvektorkonfigurationen""; ""4.3 Klassifikation durch Cluster""; ""4.3.1 Vektorquantisierer""; ""4.3.2 Cluster mit scharfen Partitionen""; ""4.3.3 Cluster mit unscharfen Partitionen""; ""4.4 Klassifikation ohne Kenntnis der Dichtefunktion""
Text of Note
""4.4.1 SchÃ?tzung der A-posteriori-Wahrscheinlichkeiten""""4.4.2 NÃ?chster-Nachbar-Klassifikator""; ""4.4.3 Klassifikation mittels Mahalanobis-Abstand""; ""4.4.4 Parzen-Fenster-Klassifikator""; ""4.4.5 Mehrreferenzen-Klassifikation""; ""4.4.6 Transformationen im Merkmalsraum""; ""4.5 Vergleich der Verfahren""; ""Kapitel 5 Systeme fÃ?r die Signalund Mustererkennung""; ""5.1 Signalerkennung mit KorrelationsempfÃ?ngern""; ""Approximation des idealen Matched-Filters""; ""5.2 Polynomklassifikator""; ""5.3 Klassifikatoren als neuronale Netze""; ""5.3.1 Strukturen kÃ?nstlicher neuronaler Netze""
0
8
8
8
8
SUMMARY OR ABSTRACT
Text of Note
Die 5. Auflage des Klassikers zur Statistischen Informationstechnik erfährt eine substantielle Erweiterung im Bereich des maschinellen Lernens. Sie bietet somit einen ausgezeichneten Überblick über die beiden wichtigen Themen Mustererkennung/Signalverarbeitung und Maschinelles Lernen. Die Autoren behandeln die Signalerkennung im Rauschen und die Mustererkennung sowie die Parameter- und Signalschätzung. Moderne Verfahren wie Wavelet-Transformation oder Clusterbildung mit unscharfen Partitionen werden berücksichtigt. Neben klassischen Verfahren der Detektion werden neuere, z.B. auf neuronale Netze und kernelbasierten Methoden aufbauende Klassifikatoren diskutiert. Die Parameterschätzung behandelt neben Bayes- und Maximum-Likelihood-Ansätzen auch adaptive Verfahren. Wiener- und Kalman-Filter sind Beispiele zur Signalschätzung. Die Grundlagen werden durch Anwendungsbeispiele aus der Praxis erläutert. Geeignet für Studierende und für Ingenieure in der Praxis.
OTHER EDITION IN ANOTHER MEDIUM
Title
Statistische Informationstechnik : Signal - und Mustererkennung, Parameter- und Signalschätzung.