EBOOKI WYDAWCY
Redakcja:
Wydawca:
Format:
epub, mobi, ibuk
Wraz z rozwojem cyfryzacji, w tym m.in. intensywnego rozwoju Internetu Rzeczy, rośnie znaczenie automatyzacji procesów biznesowych oraz użycia inteligentnych systemów wspomagania decyzji z wykorzystaniem metod sztucznej inteligencji i technik zaawansowanej analizy danych. Ten bezsprzecznie ważny trend rozwojowy implikuje istotne zagrożenia i ryzyka.
W książce autorzy opisują zjawiska celowej ingerencji na proces budowania i stosowania modeli sztucznej inteligencji opartych o maszynowe uczenie się, tak aby zakłócić ich działanie, czy też doprowadzić do zaprzestania ich funkcjonowania. Te realne zagrożenia mogą mieć olbrzymi wpływ na zdrowie ludzkie, funkcjonowanie przedsiębiorstw i gospodarki, a nawet bezpieczeństwo narodowe.
Publikacja jest interesująca zarówno dla studentów i pracowników naukowcy szczególnie, że dotyczy nowego obszaru badawczego Adversarial Machine Learning. Będzie to też praktyczne źródło wiedzy dla wszystkich, którzy zajmują się wdrażaniem metod sztucznej inteligencji, zarządzaniem procesami wykorzystującymi metody analizy danych, czy też odpowiedzialnych za cyberbezpieczeństwo.
Fascynacja ludzka nowymi rozwiązaniami z dziedziny sztucznej inteligencji wychodzi powoli z okresu euforycznego zachłyśnięcia się nowinkami technicznymi. Ludzie coraz częściej zastanawiają się, jakie mogą być minusy stosowania nowych rozwiązań opartych na SI. Pojawia się ryzyko związane ze świadomymi atakami na tego rodzaju systemy (…). Celem, jaki postawili przed sobą autorzy publikacji, jest holistyczne ujęcie problematyki hakowania systemów uczących się, stanowiących obecnie podstawowy rodzaj zastosowań, w jakim wykorzystuje się rozwiązania oparte na tzw. ograniczonej sztucznej inteligencji. Pojęcie hakowania autorzy rozumieją bardzo szeroko: nie tylko jako włamywanie się do gotowych, działających już systemów, ale również jako świadomą szkodliwą ingerencję w systemy podczas całego ich cyklu życia, czyli również podczas ich budowy i strojenia. Książka jest adresowana z jednej strony do środowiska naukowego zajmującego się problematyką cyberbezpieczeństwa, a z drugiej do praktyków – zarówno do osób konstruujących systemy uczące się, jak i odpowiedzialnych w firmach za ryzyko operacyjne i ciągłość działania.
dr hab. Andrzej Kobyliński, prof. SGH
Rok wydania | 2020 |
---|---|
Liczba stron | 220 |
Kategoria | Sztuczna inteligencja |
Wydawca | Wydawnictwo Naukowe PWN |
ISBN-13 | 978-83-01-21536-1 |
Numer wydania | 1 |
Język publikacji | polski |
Informacja o sprzedawcy | ePWN sp. z o.o. |
EBOOKI WYDAWCY
POLECAMY
Ciekawe propozycje
Spis treści
Wstęp | 9 |
Bibliografia | 12 |
1. Wstęp do hakowania systemów uczących się | 15 |
1.1. Wprowadzenie | 16 |
1.2. Systemy uczące się | 17 |
1.2.1. Definicja i rodzaje systemów uczących się | 17 |
1.2.2. Zadanie klasyfikacji i uczenie nadzorowane | 18 |
1.2.3. Ocena jakości klasyfikatora | 19 |
1.2.4. Problemy budowania systemów uczących się | 21 |
1.2.5. Potencjalne cele atakującego | 22 |
1.3. Taksonomia ataków na systemy uczące się | 23 |
1.3.1. K ryteria jakości ochrony informacji | 23 |
1.3.2. Atak na integralność systemów nadzorowanych | 25 |
1.3.2.1. Formalizacja ataku na integralność | 25 |
1.3.2.2. Atak na proces budowania systemu | 26 |
1.3.2.3. Atak na funkcjonujący system | 27 |
1.3.3. Atak na integralność innych rodzajów systemów uczących się | 29 |
Bibliografia | 30 |
2. Przegląd reprezentatywnych ataków | 33 |
2.1. Wprowadzenie | 34 |
2.2. Zagrożenia dla systemów uwierzytelniania | 35 |
2.3. Zagrożenia w systemach autonomicznych | 40 |
2.4. Zagrożenia w systemach medycznych | 45 |
2.5. Wnioski końcowe | 49 |
Bibliografia | 50 |
3. Wymiar biznesowy ataków na systemy uczące się | 53 |
3.1. Wprowadzenie | 54 |
3.2. Robotyzacja i automatyzacja procesów biznesowych | 55 |
3.2.1. Robotyzacja procesów | 55 |
3.2.2 Sztuczna inteligencja w robotyzacji procesów | 57 |
3.3. Ryzyko operacyjne w procesach biznesowych | 59 |
3.3.1. Problematyka ryzyka | 60 |
3.3.2. Z arządzanie ryzykiem | 60 |
3.3.3. Ryzyko w RPA działających z wykorzystaniem systemów uczących się | 62 |
3.4. Zagrożenia związane z wykorzystaniem systemów uczących się w RPA | 63 |
3.4.1. Wprowadzenie | 63 |
3.4.2. Geneza ataków na systemy uczące się | 65 |
3.4.3. Przykłady realnych zagrożeń | 67 |
3.4.3.1. U wagi wstępne | 67 |
3.4.3.2. Przykład ataku infekcyjnego | 68 |
3.4.3.3. Atak na automatyczny systemy w transakcji finansowych | 69 |
3.4.3.4. Ataki na systemy rekomendacyjne | 71 |
3.4.3.5. In ne zagrożenia | 72 |
3.5. Zakończenie | 74 |
Bibliografia | 74 |
4. Studia przypadków | 79 |
4.1. Atakowanie filt ru antyspamowego wykorzystującego system uczący się | 80 |
4.1.1. Charakterystyka problemu | 80 |
4.1.1.1. Wprowadzenie | 80 |
4.1.1.2. D efinicja filtra antyspamowego | 81 |
4.1.1.3. Problem filtrowania poczty elektronicznej w działalności biznesowej | 84 |
4.1.1.4. Przegląd badań naukowych | 85 |
4.1.2. Opis eksperymentu | 88 |
4.1.2.1. Cel badania | 88 |
4.1.2.2. D ostępne dane empiryczne | 89 |
4.1.2.3. Problem hakowania systemów uczących się | 91 |
4.1.3. Wnioski i rekomendacje | 105 |
Bibliografia | 107 |
4.2. Atak na system detekcji nadużyć w bankowości elektronicznej | 110 |
4.2.1. P roblem nadużyć w bankowości elektronicznej | 110 |
4.2.1.1. Wprowadzenie | 110 |
4.2.1.2. D efinicja nadużycia w transakcjach bankowych | 111 |
4.2.1.3. Wykrywanie nadużyć i przeciwdziałanie im | 112 |
4.2.1.4. Standardowy system wykrywania i przeciwdziałania nadużyciom | 113 |
4.2.2. Opis eksperymentu | 115 |
4.2.2.1. Cel badania | 115 |
4.2.2.2. Dostępne dane empiryczne | 117 |
4.2.2.3. Generatywne sieci współzawodniczące (GANs) | 118 |
4.2.2.4. Scenariusze przebiegu ataku | 122 |
4.2.3. Modele generatora i dyskryminatora | 125 |
4.2.3.1. Budowa modeli | 125 |
4.2.3.2. Ewaluacja modeli | 129 |
4.2.4. Wnioski ko ńcowe i rekomendacje | 132 |
Bibliografia | 133 |
5. Bezpieczeństwo aplikacji systemów uczących się | 137 |
5.1. Wprowadzenie | 138 |
5.2. Wybrane problemy niezawodności oprogramowania | 139 |
5.2.1. Problem złożoności kodu | 139 |
5.2.2. Przepełnienie bufora oraz odczyt poza nim | 141 |
5.2.3. D ostęp po zwolnieniu pamięci | 142 |
5.2.4. Niewłaściwa deserializacja i wstrzykiwanie danych | 142 |
5.3. At aki na środowiska programistyczne i sprzęt dla systemów uczących się | 143 |
5.3.1. Atak na platformę programistyczną | 143 |
5.3.2. Atak na sprzęt na przykładzie Deep Hammer | 145 |
5.4. Ataki na biblioteki z wykorzystaniem automatycznych metod testowania oprogramowania | 146 |
5.4.1. Wprowadzenie | 146 |
5.4.2. Atak na bibliotekę OpenCV | 147 |
5.4.3. Atak na bibliotekę dlib | 150 |
5.4.4. Podsumowanie podatności znalezionych za pomocą automatycznych metod testowania oprogramowania | 152 |
5.5. Wnioski i kierunki dalszego działania | 153 |
Bibliografia | 154 |
Zakończenie | 157 |
Bibliografia | 159 |