Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

1 ocena

Format:

ibuk

RODZAJ DOSTĘPU

 

Dostęp online przez myIBUK

WYBIERZ DŁUGOŚĆ DOSTĘPU

Cena początkowa:

Najniższa cena z 30 dni: 6,92 zł  


6,92

w tym VAT

TA KSIĄŻKA JEST W ABONAMENCIE

Już od 24,90 zł miesięcznie za 5 ebooków!

WYBIERZ SWÓJ ABONAMENT

Niewątpliwie w obecnych czasach coraz częściej będą poszukiwane systemy, które będą w stanie możliwie inteligentnie wynajdywać i przetwarzać informacje. Mam nadzieję, że książka, którą mają Państwo w rękach, będzie miłym dopełnieniem stanu wiedzy z zagadnień dotyczących uczenia się modeli adaptacyjnych ze szczególnym uwzględnieniem sztucznych sieci neuronowych.


Materiał poniższej monografii trudno sklasyfikować tylko do jednej z powyżej wspomnianych gałęzi metod inteligencji obliczeniowej. Choć niewątpliwie większość materiału jest bezpośrednio związana ze sztucznymi sieciami neuronowymi, to nietrudno dopatrzyć się metod uczenia maszynowego, statystyki, teorii filtrów adaptacyjnych czy metod wizualizacji.


Rok wydania2014
Liczba stron312
KategoriaInne
WydawcaAkademicka Oficyna Wydawnicza EXIT Andrzej Lang
ISBN-13978-83-7837-539-5
Numer wydania1
Język publikacjipolski
Informacja o sprzedawcyePWN sp. z o.o.

Ciekawe propozycje

Spis treści

  Wprowadzenie
  
  1. Funkcje transferu
  
  1.1. Funkcje realizowane przez neuron
  1.2. Funkcje aktywacji
  1.3. Funkcje wyjścia
  1.4. Funkcje transferu
  
  2. Sieci z radialnymi funkcjami bazowymi (RBF)
  
  2.1. Sieci z radialnymi funkcjami bazowymi i regularyzacją
  2.2. Uogólniona sieć z radialnymi funkcjami bazowymi (GRBF)
  2.3. Metody inicjalizacji i uczenia bez nadzoru sieci typu RBF
  2.4. Uczenie z nadzorem sieci RBF
  2.5. Rozszerzenia sieci RBF
  2.6. Porównywanie sieci RBF z sieciami MLP
  2.7. Probabilistyczne sieci neuronowe
  
  3. Support Vector Machines (SVM)
  
  3.1. Funkcje jądrowe
  3.2. Konstrukcja optymalnej hiperpłaszczyzny
  3.3. Konstrukcja hiperpłaszczyzny dla przypadków nieseparowalnych
  3.4. v-SVC
  3.5. Problem regresji
  3.6. Problem regresji dla v-SVM
  3.7. Optymalizacja problemów programowania kwadratowego
  3.8. Zbieżność algorytmów dekompozycji QP
  3.9. SVM a RBF
  3.10. Meta-SVM
  
  4. Ontogeniczne modele sieci neuronowych
  
  4.1. Modele zmniejszające strukturę
  4.2. Modele o strukturach rozrastających się
  4.3. Sieć IncNet ze statystyczną kontrolą złożoności sieci
  4.4. Sieć neuronowa optymalnych funkcji transferu
  
  5. Komitety modeli
  
  5.1. K-klasyfikatorów
  5.2. K2-klasyfikatorów
  5.3. Maszyna liniowa
  5.4. Sposoby podejmowania decyzji przez komitet
  5.5. Bootstrap Aggregating
  5.6. Boosting i AdaBoost
  5.7. Inne komitety
  5.8. Komitety heterogeniczne
  5.9. Komitety z lokalną kompetencją
  
  6. Wstępne i końcowe przetwarzanie danych
  
  6.1. Transformacje danych
  6.2. Wartości nietypowe i brakujące
  6.3. Metody selekcji i ważenia cech
  6.4. Regularyzacja danych
  6.5. Przedziały ufności jako narzędzie analizy danych i wizualizacji wyników
  
  7. Zastosowanie sieci neuronowych
  
  7.1. Techniki porównywania różnych modeli
  7.2. Medyczne zastosowania sieci IncNet
  7.3. Aproksymacja
  
  8. Zakończenie
  
  Bibliografia
  Skorowidz
  Ilustracje kolorowe
RozwińZwiń