Klasyfikator Hierarchiczny z nakładającymi się grupami klas

-28%

Klasyfikator Hierarchiczny z nakładającymi się grupami klas

1 opinia

Format:

pdf, ibuk

DODAJ DO ABONAMENTU

WYBIERZ RODZAJ DOSTĘPU

27,22  37,80

Format: pdf

 

Dostęp online przez myIBUK

WYBIERZ DŁUGOŚĆ DOSTĘPU

Cena początkowa: 37,80 zł (-28%)

Najniższa cena z 30 dni: 27,22 zł  


27,22

w tym VAT

TA KSIĄŻKA JEST W ABONAMENCIE

Już od 24,90 zł miesięcznie za 5 ebooków!

WYBIERZ SWÓJ ABONAMENT

W czasach, gdy ilość i rozmiar danych stają się ogromne, istnieje duże zapotrzebowanie na podejścia do klasyfikacji, które będą skuteczne w rozwiązywaniu takich problemów. W niniejszej pracy przedstawiono algorytmy i związane z nimi zagadnienia wielopoziomowego, hierarchicznego klasyfikatora. Nowością w zaproponowanym ujęciu jest schemat podziału na podzadania przez podział przestrzeni rozpoznawanych klas obiektów. Algorytm wykorzystuje w tym celu wiedzę zdobytą przez mało dokładnie nauczone, "słabe” klasyfikatory. Ich słabość pozwala na szybkie nauczanie niewymagające wielu doświadczeń. Taki mechanizm umożliwia budowę silnego klasyfikatora na kolejnych dodawanych poziomach. Autor prezentuje podstawowe zasady hierarchicznej klasyfikacji, nowe definicje słabego klasyfikatora, szczegółowy opis modelu oraz doświadczenia pokazujące skuteczność podejścia.

Książka przedstawia oryginalne rezultaty, które częściowo już znalazły swoje miejsce w literaturze światowej we wcześniejszych publikacjach autora.


Z recenzji prof. Leszka Rutkowskiego (Politechnika Częstochowska)



W monografii został przedstawiony oryginalny model klasyfikatora, który może być wykorzystany jako skuteczne narzędzie klasyfikacji obrazów.


Z recenzji prof. Mariusza Flasińskiego (Uniwersytet Jagielloński)


Rok wydania2012
Liczba stron148
KategoriaInne
WydawcaWydawnictwo Uniwersytetu Jagiellońskiego
ISBN-13978-83-233-3444-6
Numer wydania1
Język publikacjipolski
Informacja o sprzedawcyePWN sp. z o.o.

Ciekawe propozycje

Spis treści

  Spis rysunków VII
  Spis tabel IX
  Wprowadzenie XI
  Wstęp    1
  
  1. Podział zadania klasyfikacji    9
  
  1.1. Klasyfikator     10
  1.2. Podział przestrzeni klas     10
  1.2.1. Losowa symulacja klasyfikatora dla podproblemu    15
  1.2.2. Symulacja z wykorzystaniem prawa Bayesa     17
  1.2.3. Wykorzystanie ewaluacji ryzyka w rzeczywistym problemie     19
  1.3. Wykorzystanie słabych klasyfikatorów     24
  
  2. Klasyfikator Hierarchiczny HCOC    33
  
  2.1. Podział przestrzeni wyjściowej klas     33
  2.1.1. Klastry i ich nakładanie się     37
  2.2. Definicja HCOC     38
  2.2.1. Macierz klastrowania F     40
  2.3. Ewaluacja klasyfikatora HCOC     46
  2.3.1. Agregacja wyników klasyfikacji w modelach złożonych     46
  2.3.2. Wagi klastrów HCOC     47
  2.3.3. Ewaluacja poddrzew     49
  2.3.4. Zależność wag klastrów od składowych klas     55
  2.4. HCOC jako rozwiązanie zadania przez podział     57
  2.4.1. Klasyfikacja przykładów     60
  2.5. Nauczanie pojedynczych węzłów     63
  2.6. Zadanie klastrowania     65
  2.6.1. Rozszerzenie algorytmu klastrowania aglomeratywnego     66
  2.6.2. Bayesowskie podejście do klastrowania     67
  2.6.3. Urównoleglenie klastrowania przy wykorzystaniu algorytmu Rosnacego Gazu Neuronowego GNG     70
  2.6.4. Wykorzystanie metod genetycznych dla klastrowania     73
  2.6.5. Inne funkcje dopasowania     74
  2.6.6. Alternatywne klastrowanie dla lasu drzew decyzyjnych     76
  2.6.7. Problem zapewnienia różnorodności klasyfikatorów     77
  2.7. Zbieżność nauczania HCOC     79
  2.7.1. HCOC jako złożony klasyfikator     79
  2.7.2. Błąd HCOC a słabość klasyfikatorów bazowych     84
  2.7.3. Zależność błędu HCOC od błędu generalizacji     84
  
  3. Eksperymenty i doświadczenia    89
  
  3.1. Eksperyment Mixture of Gaussians dla wielu klas wyjściowych     89
  3.2. Rozpoznawanie przedmiotów z bazy COIL i porównanie z innym modelem hierarchicznym     93
  3.3. Zbiory porównawcze z repozytoriów     94
  3.4. Klasyfikacja tekstur     94
  3.5. Zastosowania w teorii automatów     96
  3.6. Rozpoznawanie twarzy     99
  3.7. Ekstrakcja reguł     102
  
  Zakończenie    107
  
  Dodatek A. Problemy nauczania maszynowego    109
  
  A.1. Nadzorowane nauczanie maszynowe     109
  A.2. Atrybuty przykładów uczących     109
  A.3. Funkcje kosztu i ryzyka     110
  A.4. Klasyfikatory „monolityczne”    111
  A.5. Klasyfikatory złożone     113
  A.6. Agregacja wyników     115
  A.7. Sposoby selekcji końcowej klasy     117
  A.8. Podejścia przy aglomeratywnym klastrowaniu     117
  A.9. Algorytm GNG     118
  A.10.Niektóre miary różnorodności     118
  A.11.Rozkład Beta     120
  A.12.Rozkład Dirichleta     121
  A.13.Walidacja krzyżowa i błąd Err(0.632)     122
  
  Bibliografia    125
  Skorowidz pojęc    135
RozwińZwiń