Hakowanie sztucznej inteligencji

1 opinia

Redakcja:

Jerzy Surma

Format:

epub, mobi, ibuk

DODAJ DO ABONAMENTU

WYBIERZ RODZAJ DOSTĘPU

41,30  59,00

Format: epub, mobi

 

Dostęp online przez myIBUK

WYBIERZ DŁUGOŚĆ DOSTĘPU

6,15

Wypożycz na 24h i opłać sms-em.
Brak wydruku.

41,3059,00

cena zawiera podatek VAT

ZAPŁAĆ SMS-EM

TA KSIĄŻKA JEST W ABONAMENCIE

Już od 19,90 zł miesięcznie za 5 ebooków!

WYBIERZ SWÓJ ABONAMENT

Wraz z rozwojem cyfryzacji, w tym m.in. intensywnego rozwoju Internetu Rzeczy, rośnie znaczenie automatyzacji procesów biznesowych oraz użycia inteligentnych systemów wspomagania decyzji z wykorzystaniem metod sztucznej inteligencji i technik zaawansowanej analizy danych. Ten bezsprzecznie ważny trend rozwojowy implikuje istotne zagrożenia i ryzyka.


W książce autorzy opisują zjawiska celowej ingerencji na proces budowania i stosowania modeli sztucznej inteligencji opartych o maszynowe uczenie się, tak aby zakłócić ich działanie, czy też doprowadzić do zaprzestania ich funkcjonowania. Te realne zagrożenia mogą mieć olbrzymi wpływ na zdrowie ludzkie, funkcjonowanie przedsiębiorstw i gospodarki, a nawet bezpieczeństwo narodowe.


Publikacja jest interesująca zarówno dla studentów i pracowników naukowcy szczególnie, że dotyczy nowego obszaru badawczego Adversarial Machine Learning. Będzie to też praktyczne źródło wiedzy dla wszystkich, którzy zajmują się wdrażaniem metod sztucznej inteligencji, zarządzaniem procesami wykorzystującymi metody analizy danych, czy też odpowiedzialnych za cyberbezpieczeństwo.


Fascynacja ludzka nowymi rozwiązaniami z dziedziny sztucznej inteligencji wychodzi powoli z okresu euforycznego zachłyśnięcia się nowinkami technicznymi. Ludzie coraz częściej zastanawiają się, jakie mogą być minusy stosowania nowych rozwiązań opartych na SI. Pojawia się ryzyko związane ze świadomymi atakami na tego rodzaju systemy (…). Celem, jaki postawili przed sobą autorzy publikacji, jest holistyczne ujęcie problematyki hakowania systemów uczących się, stanowiących obecnie podstawowy rodzaj zastosowań, w jakim wykorzystuje się rozwiązania oparte na tzw. ograniczonej sztucznej inteligencji. Pojęcie hakowania autorzy rozumieją bardzo szeroko: nie tylko jako włamywanie się do gotowych, działających już systemów, ale również jako świadomą szkodliwą ingerencję w systemy podczas całego ich cyklu życia, czyli również podczas ich budowy i strojenia. Książka jest adresowana z jednej strony do środowiska naukowego zajmującego się problematyką cyberbezpieczeństwa, a z drugiej do praktyków – zarówno do osób konstruujących systemy uczące się, jak i odpowiedzialnych w firmach za ryzyko operacyjne i ciągłość działania.
dr hab. Andrzej Kobyliński, prof. SGH


Liczba stron220
WydawcaWydawnictwo Naukowe PWN
ISBN-13978-83-01-21536-1
Numer wydania1
Język publikacjipolski
Informacja o sprzedawcyePWN sp. z o.o.

Ciekawe propozycje

Spis treści

  Wstęp    9
    Bibliografia    12
  1. Wstęp do hakowania systemów uczących się    15
    1.1. Wprowadzenie    16
    1.2. Systemy uczące się    17
      1.2.1. Definicja i rodzaje systemów uczących się    17
      1.2.2. Zadanie klasyfikacji i uczenie nadzorowane    18
      1.2.3. Ocena jakości klasyfikatora    19
      1.2.4. Problemy budowania systemów uczących się    21
      1.2.5. Potencjalne cele atakującego    22
    1.3. Taksonomia ataków na systemy uczące się    23
      1.3.1. K ryteria jakości ochrony informacji    23
      1.3.2. Atak na integralność systemów nadzorowanych    25
        1.3.2.1. Formalizacja ataku na integralność    25
        1.3.2.2. Atak na proces budowania systemu    26
        1.3.2.3. Atak na funkcjonujący system    27
      1.3.3. Atak na integralność innych rodzajów systemów uczących się    29
    Bibliografia    30
  2. Przegląd reprezentatywnych ataków    33
    2.1. Wprowadzenie    34
    2.2. Zagrożenia dla systemów uwierzytelniania    35
    2.3. Zagrożenia w systemach autonomicznych    40
    2.4. Zagrożenia w systemach medycznych    45
    2.5. Wnioski końcowe    49
    Bibliografia    50
  3. Wymiar biznesowy ataków na systemy uczące się    53
    3.1. Wprowadzenie    54
    3.2. Robotyzacja i automatyzacja procesów biznesowych    55
      3.2.1. Robotyzacja procesów    55
      3.2.2 Sztuczna inteligencja w robotyzacji procesów    57
    3.3. Ryzyko operacyjne w procesach biznesowych    59
      3.3.1. Problematyka ryzyka    60
      3.3.2. Z arządzanie ryzykiem    60
      3.3.3. Ryzyko w RPA działających z wykorzystaniem systemów uczących się    62
    3.4. Zagrożenia związane z wykorzystaniem systemów uczących się w RPA    63
      3.4.1. Wprowadzenie    63
      3.4.2. Geneza ataków na systemy uczące się    65
      3.4.3. Przykłady realnych zagrożeń    67
        3.4.3.1. U wagi wstępne    67
        3.4.3.2. Przykład ataku infekcyjnego    68
        3.4.3.3. Atak na automatyczny systemy w transakcji finansowych    69
        3.4.3.4. Ataki na systemy rekomendacyjne    71
        3.4.3.5. In ne zagrożenia    72
    3.5. Zakończenie    74
    Bibliografia    74
  4. Studia przypadków    79
    4.1. Atakowanie filt ru antyspamowego wykorzystującego system uczący się    80
      4.1.1. Charakterystyka problemu    80
        4.1.1.1. Wprowadzenie    80
        4.1.1.2. D efinicja filtra antyspamowego    81
        4.1.1.3. Problem filtrowania poczty elektronicznej w działalności biznesowej    84
        4.1.1.4. Przegląd badań naukowych    85
      4.1.2. Opis eksperymentu    88
        4.1.2.1. Cel badania    88
        4.1.2.2. D ostępne dane empiryczne    89
        4.1.2.3. Problem hakowania systemów uczących się    91
      4.1.3. Wnioski i rekomendacje    105
    Bibliografia    107
    4.2. Atak na system detekcji nadużyć w bankowości elektronicznej    110
      4.2.1. P roblem nadużyć w bankowości elektronicznej    110
        4.2.1.1. Wprowadzenie    110
        4.2.1.2. D efinicja nadużycia w transakcjach bankowych    111
        4.2.1.3. Wykrywanie nadużyć i przeciwdziałanie im    112
        4.2.1.4. Standardowy system wykrywania i przeciwdziałania nadużyciom    113
      4.2.2. Opis eksperymentu    115
        4.2.2.1. Cel badania    115
        4.2.2.2. Dostępne dane empiryczne    117
        4.2.2.3. Generatywne sieci współzawodniczące (GANs)    118
        4.2.2.4. Scenariusze przebiegu ataku    122
      4.2.3. Modele generatora i dyskryminatora    125
        4.2.3.1. Budowa modeli    125
        4.2.3.2. Ewaluacja modeli    129
      4.2.4. Wnioski ko ńcowe i rekomendacje    132
    Bibliografia    133
  5. Bezpieczeństwo aplikacji systemów uczących się    137
    5.1. Wprowadzenie    138
    5.2. Wybrane problemy niezawodności oprogramowania    139
      5.2.1. Problem złożoności kodu    139
      5.2.2. Przepełnienie bufora oraz odczyt poza nim    141
      5.2.3. D ostęp po zwolnieniu pamięci    142
      5.2.4. Niewłaściwa deserializacja i wstrzykiwanie danych    142
    5.3. At aki na środowiska programistyczne i sprzęt dla systemów uczących się    143
      5.3.1. Atak na platformę programistyczną    143
      5.3.2. Atak na sprzęt na przykładzie Deep Hammer    145
    5.4. Ataki na biblioteki z wykorzystaniem automatycznych metod testowania oprogramowania    146
      5.4.1. Wprowadzenie    146
      5.4.2. Atak na bibliotekę OpenCV    147
      5.4.3. Atak na bibliotekę dlib    150
      5.4.4. Podsumowanie podatności znalezionych za pomocą automatycznych metod testowania oprogramowania    152
    5.5. Wnioski i kierunki dalszego działania    153
    Bibliografia    154
    Zakończenie    157
    Bibliografia    159
RozwińZwiń
W celu zapewnienia wysokiej jakości świadczonych przez nas usług, nasz portal internetowy wykorzystuje informacje przechowywane w przeglądarce internetowej w formie tzw. „cookies”. Poruszając się po naszej stronie internetowej wyrażasz zgodę na wykorzystywanie przez nas „cookies”. Informacje o przechowywaniu „cookies”, warunkach ich przechowywania i uzyskiwania dostępu do nich znajdują się w Regulaminie.

Nie pokazuj więcej tego powiadomienia