EBOOKI WYDAWCY
Autor:
Wydawca:
Format:
ibuk
Jest to nowoczesny podręcznik zaawansowanych technik analizy danych stosowanych w zagadnieniach klasyfikacji, z głównym naciskiem na metody statystyczne.
Książka składa się z dwóch części.W pierwszej z nich przedstawiono systemy uczenia się pod nadzorem, w części drugiej opisano cztery podstawowe metody uczenia się bez nadzoru. Uwzględniono większość nowych najbardziej obiecujących metod powstałych w ostatnim dziesięcioleciu.
Podręcznik jest przeznaczony dla studentów studiów matematycznych, informatycznych i technicznych, na których analiza jest przedmiotem obowiązkowym lub fakultatywnym.
Plik pdf ma postać skanów co uniemożliwia przeszukiwanie tekstu.
Rok wydania | 2008 |
---|---|
Liczba stron | 400 |
Kategoria | Analiza matematyczna |
Wydawca | Wydawnictwo WNT |
ISBN-13 | 978-83-204-3459-0 |
Numer wydania | 1 |
Język publikacji | polski |
Informacja o sprzedawcy | ePWN sp. z o.o. |
EBOOKI WYDAWCY
POLECAMY
Ciekawe propozycje
Spis treści
Przedmowa | 9 |
Spis oznaczeń | 13 |
Część I . Statystyczne systemy uczące się pod nadzorem. Rozpoznawanie wzorców | 17 |
1.Probabilistyczne metody klasyfikacyjne | 19 |
1.1. Wektory losowe i ich rozkłady prawdopodobieństwa | 19 |
1.2. Pojęcia wstępne | 22 |
1.3. Rzeczywisty i aktualny poziom błędu, klasyfikator bayesowski | 24 |
1.4. Klasyfikatory gaussowskie | 30 |
1.5. Naiwny klasyfikator bayerowski | 41 |
1.6. Liniowa funkcja dyskryminacyjna Fishera | 42 |
1.7. Zmienne dyskryminacyjne | 45 |
1.8. Klasyfikatory liniowe Andersena Bahadura | 53 |
1.9. Klasyfikatory liniowe maksymalizujące odległości probabilistyczne | 58 |
1.10. Estymacja aktualnego poziomu błędu | 63 |
2. Metody regresyjne | 70 |
2.1. Regresja liniowa | 70 |
2.2. Regresja logistyczna | 72 |
2.3. Związek między regresją logistyczną i liniową analizą dyskryminacyjną | 77 |
2.4. Estymatory jądrowe gęstości | 79 |
2.5. Regresja nieparametryczna | 87 |
3. Krzywe ROC | 90 |
4. Metoda wektorów nośnych | 107 |
4.1. Model liniowy | 107 |
4.2. Model nieliniowy | 114 |
4.3. Zagadnienie K klas | 116 |
4.4. VC wymiar i zasada SRM | 117 |
4.5. Optymalizacja | 126 |
5. Metoda najbliższego sąsiada | 135 |
5.1. Miara niepodobieństwa | 136 |
5.2. Estymacja funkcji gęstości | 139 |
5.3. Własności graniczne | 141 |
5.4. Metody rozwiązywania sytuacji remisowych | 144 |
5.5. Metody wyboru reprezentatywnego podzbioru obserwacji | 146 |
5.6. Uwagi praktyczne | 151 |
6. Drzewa klasyfikacyjne | 152 |
6.1. Konstrukcja drzewa klasyfikacyjnego | 156 |
6.2. Kryteria podziału - metoda CART | 159 |
6.3. Optymalna wielkość drzewa klasyfikacyjnego | 168 |
6.4. Kryteria podziału - metoda QUEST | 178 |
6.5. Brakujące wartości cech | 184 |
7. Sieci neuronowe | 187 |
7.1. Modele neuronów | 189 |
7.1.1. Perceptron | 192 |
7.1.2. ADALINE (ADAptive LInear Neuron) | 203 |
7.1.3. Neuron sigmoidalny | 207 |
7.1.4. Neuron Hebba | 209 |
7.2. Sieci wielowarstwowe | 212 |
7.2.1. MADALINE (Many ADALINE’s) | 219 |
7.3. Metody uczenia sieci neuronowych | 219 |
7.3.1. Funkcja błędu | 220 |
7.3.2. Ogólna idea algorytmów iteracyjnych | 221 |
7.3.3. Algorytm największego spadku | 225 |
7.3.4. Algorytm wstecznej propagacji błędu | 226 |
7.3.5. Modyfikacje algorytmu BP | 228 |
7.3.6. Algorytm zmiennej metryki | 232 |
7.3.7. Metoda gradientów sprzężonych | 234 |
7.3.8. Algorytm Levenberga-Marquardta | 238 |
7.3.9. Rekurencyjna metoda najmniejszych kwadratów | 240 |
7.3.10. Algorytm symulowanego wyżarzania | 241 |
7.3.11. Algorytmy ewolucyjne i genetyczne | 243 |
7.4. Sieci rekurencyjne | 245 |
7.4.1. Sieci Hopfielda | 245 |
7.4.2. Sieci Hamminga | 249 |
7.5. Sieci samoorganizujące się z konkurencją (współzawodnictwem) | 255 |
7.5.1. Sieci WTA (Winner Takes All) | 256 |
7.5.2. Sieci WTM (Winner Takes Most) | 258 |
7.6. Sieci rezonansowe | 263 |
7.7. Sieci o radialnych funkcjach bazowych | 267 |
7.8. Probabilistyczne sieci neuronowe | 273 |
7.9. Uwagi praktyczne | 274 |
8. Dekompozycja zagadnień wieloklasowych | 280 |
8.1. Metoda OPC | 280 |
8.2. Metoda ECOC | 282 |
8.3. Metoda PWC | 285 |
9. Wzmacnianie klasyfikatorów | 292 |
9.1. Algorytm bagging | 293 |
9.2. Algorytmy typu boosting | 295 |
10. Procedury kombinowane | 312 |
10.1. Metoda selekcji | 313 |
10.2. Łączenie klasyfikatorów | 315 |
10.2.1. Metoda głosowania | 315 |
10.2.2. Elementarne metody łączenia klasyfikatorów | 317 |
10.2.3. Regresja stosowa | 320 |
Część II. Statystyczne systemy uczące się bez nadzoru Analiza skupień, redukcja wymiaru | 327 |
11. Analiza składowych głównych | 329 |
11.1. Definicja składowych głównych | 331 |
11.2. Własności składowych głównych | 332 |
11.3. Metody pomijania składowych głównych | 339 |
12. Analiza skupień | 345 |
12.1. Algorytmy hierarchiczne | 346 |
12.2. Metoda K-średnich | 352 |
12.3. Inne algorytmy analizy skupień | 358 |
13. Skalowanie wielowymiarowe | 362 |
13.1. Klasyczne skalowanie | 363 |
13.2. Skalowanie metryczne | 365 |
13.3. Skalowanie porządkowe | 367 |
14. Analiza korespondencji | 372 |
14.1. Algorytm analizy korespondencji | 372 |
14.2. Wieloczynnikowa analiza korespondencji | 379 |
Literatura | 382 |
Polski skorowidz pojęć | 392 |
Angielski skorowidz pojęć | 398 |