Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab.

1 Metody sztucznej inteligencji - Technologie rozmyte i n...
Author: Alicja Wilczyńska
0 downloads 0 Views

1 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 1 Metody sztucznej inteligencji Automatyka i Robotyka - studia stacjonarne II stopnia Wykład 4 - 2015/2016 Kazimierz Duzinkiewicz, dr hab. Inż. Katedra Inżynierii Systemów Sterowania Perceptrony proste nieliniowe i wielowarstwowe

2 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 2 Perceptrony proste nieliniowe Pojedynczy perceptron nieliniowy

3 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 3 Perceptrony proste nieliniowe Stosowane funkcje aktywacji nieliniowe różniczkowalne z łatwo obliczalnymi pochodnymi względem sygnału pobudzenia - funkcja sigmoidalna logarytmiczna (niesymetryczna): Przykład: funkcje sigmoidalne - funkcja sigmoidalna tangensa hiperbolicznego (symetryczna)

4 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 4 Perceptrony proste nieliniowe Funkcja sigmoidalna logarytmiczna (niesymetryczna): Pochodna funkcji sigmoidalnej logarytmicznej

5 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 5 Perceptrony proste nieliniowe Funkcja sigmoidalna tangensa hiperbolicznego (symetryczna) Pochodna funkcji sigmoidalnej tangensa hiperbolicznego

6 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 6 Perceptrony proste nieliniowe Perceptrony proste nieliniowe - warstwa Konwencje notacji: jak poprzednio

7 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 7 Perceptrony proste nieliniowe Reguła uczenia perceptronów nieliniowych – reguła delty Sposób wyprowadzenia bazujący na wartości oczekiwanej (początkowo) błędu średniego kwadratowego Podobnie też rozważamy pojedynczy neuron

8 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 8 Przyjęte oznaczenia:  Wektor wag dla i ‑ tego neuronu (i ‑ ty wiersz macierzy wag i wektora progów transformowany)  Wektor wzorców wejściowych (k ‑ dowolne) Perceptrony proste nieliniowe

9 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 9 Perceptrony proste nieliniowe Funkcjonał jakości działania sieci w procesie uczenia Błąd średni kwadratowy gdzie: E[ ] oznacza wartość średnią (oczekiwaną) zmiennej losowej. Wartość oczekiwana liczona jest po wszystkich zbiorach par uczących. Zakładamy przy tym, że wybory kolejnych par uczących są niezależne od siebie

10 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 10 Perceptrony proste nieliniowe Poszukiwanie iteracyjne najlepszych wartości wag sieci nieliniowej prostej Zastępujemy (estymujemy)  wartość oczekiwaną kwadratu błędu  kwadratem błędu w k-tej iteracji (po pokazaniu sieci k-tej pary uczącej)

11 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 11 Będziemy poszukiwać minimum metodą iteracyjną gradientu prostego; musimy zatem określić Perceptrony proste nieliniowe 1. kierunek gradientu (kierunek zmian x) 2. wielkość zmiany x w kierunku gradientu (wielkość kroku w kierunku gradientu)

12 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 12 Perceptrony proste nieliniowe oraz Ogólna postać gradientu Wynoszą one Składowe

13 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 13 Perceptrony proste nieliniowe

14 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 14 Perceptrony proste nieliniowe Otrzymaliśmy Ostatecznie możemy napisać wyrażenie na gradient miary jakości

15 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 15 Perceptrony proste nieliniowe Wyrażenie nazywane jest deltą (błędem) i-tego neuronu przy pokazaniu k ‑ tego wzorca sieci perceptronów prostych nieliniowych Metoda gradientu prostego daje nam regułę zmiany wartości wag i progów po pokazaniu sieci k-tej pary wzorców uczących

16 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 16 Perceptrony proste nieliniowe Podstawiając uzyskane wyniki (postać gradientu kwadratu błędu) do iteracyjnej formuły gradientu prostego otrzymamy lub Ostatnie zależności noszą nazwę reguły uczenia delty

17 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 17 Perceptrony proste nieliniowe Uogólnienie reguły delty dla warstwy

18 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 18 Sieci wielowarstwowe jednokierunkowe Struktura i wielkości związane

19 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 19 Sieci wielowarstwowe jednokierunkowe

20 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 20 Sieci wielowarstwowe jednokierunkowe

21 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 21 Sieci wielowarstwowe jednokierunkowe Dwie stosowane notacje Szczegóły: DODATEK 1

22 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 22 Sieci wielowarstwowe jednokierunkowe Obliczanie odpowiedzi sieci (wzorców wyjściowych rzeczywistych) Dla m-tej warstwy możemy napisać lub gdzie: możemy traktować jako nieliniowy operator wektorowy Będziemy zakładali, że są identyczne dla całej warstwy i używali dla elementów wektora oznaczenia Przetwarzanie realizowane przez sieć Szczegóły: DODATEK 2

23 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 23 Sieci wielowarstwowe jednokierunkowe Przetwarzanie realizowane przez sieć Odpowiedzi poszczególnych neuronów m-tej warstwy kształtowane są całkowicie przez aktualne wartości wag i progów związanych tylko z danym neuronem oraz przez wartości docierających aktualnie do warstwy sygnałów Przedstawione zależności ukazują:

24 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 24 Sieci wielowarstwowe jednokierunkowe Wyjście sieci (wyjście M-tej warstwy) Notacja 1 czyli

25 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 25 Sieci wielowarstwowe jednokierunkowe Notacja 2 czyli

26 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 26 Sieci wielowarstwowe jednokierunkowe Na wartości docierających do m-tej warstwy sygnałów wpływ mają wartości wag i funkcje przetwarzania wszystkich poprzednich warstw Przedstawione zależności ukazują:

27 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 27 Koniec materiału prezentowanego podczas wykładu Dziękuję za uczestnictwo w wykładzie i uwagę

28 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 28 Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje

29 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 29  liczba neuronów w m-tej warstwie ; indeks numeru wyjścia warstwy m-tej przebiega zbiór ; wejście sieci jest traktowane jako wyjście otoczenia, przyjmuje się zatem Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje Konwencje oznaczeń  liczba warstw w sieci M; indeks numeru warstwy przebiega zbiór Wyjście ostatniej warstwy jest wyjściem sieci

30 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 30 Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje  w sieci wielowarstwowej wyjście jednej warstwy staje się wejściem warstwy następnej; Można by zrezygnować z wprowadzania oddzielnego oznaczania indeksu wejścia warstwy m-tej, bowiem Dla odróżnienia jednak, kiedy indeks przebiega wejścia a kiedy wyjścia będziemy używali indeksu j dla wejść poszczególnych warstw; przyjmiemy zatem Liczba wejść m-tej warstwy ; indeks numeru wejścia warstwy m ‑ tej przebiega zbiór ; zachodzi oczywiście równość

31 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 31 Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje  wielkości związane z poszczególnymi warstwami będziemy oznaczali stosowanymi dotąd symbolami z indeksem górnym określającym numer warstwy  wektor wejść sieci Notacja 1Notacja 2

32 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 32 Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje Możemy też używać terminu wektora wejść w odniesieniu do każdej warstwy. Wówczas wektor wejść m-tej warstwy Notacja 1Notacja 2

33 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 33 Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje Zachodzi oczywiście:

34 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 34 Czasem będziemy utożsamiali zapisy: ; dla dowolnego wektora wejściowego będziemy stosowali też symbol p Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje Z wszystkich wektorów wejść uczących tworzymy macierz Notacja 1

35 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 35 Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje Czasem będziemy utożsamiali zapisy: ; dla dowolnego wektora wejściowego będziemy stosowali też symbol z Notacja 2

36 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 36 Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje Operując pojęciem wektora wejść dla poszczególnych warstw będziemy mieli Notacja 1

37 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 37 Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje Notacja 2

38 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 38 Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje  macierze wag i wektory progów m-tej warstwy neuronów Notacja 1

39 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 39 Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje Macierz wag związana jest z warstwą sieci. Z pojedynczym neuronem warstwy związany jest wektor wag. Mówiąc wektor wag domyślnie będziemy przyjmowali, że jest to wektor wierszowy (wiersz macierzy wag) Czasem będziemy utożsamiali zapisy: Wektor progów związany jest z warstwą sieci. Z pojedynczym neuronem warstwy związany jest próg (element wektora progów)

40 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 40 Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje Notacja 2 Czasem będziemy utożsamiali zapisy:

41 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 41 Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje  zbiór macierzy wag i wektorów progów Notacja 1 Notacja 2

42 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 42 Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje  wektor pobudzeń neuronów m-tej warstwy sieci dla danego wektora wejść (przy pewnych wartościach wag i progów) Notacja 1 i 2

43 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 43 Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje Możemy też operować pojęciem macierzy pobudzeń neuronów m-tej warstwy sieci dla danej macierzy wejść (przy pewnych wartościach wag i progów) Notacja 1 i 2 Dla dowolnego wektora pobudzeń m-tej warstwy będziemy stosowali też symbol

44 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 44 Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje  wektor wzorców wyjściowych rzeczywistych m-tej warstwy sieci dla danego wektora wejść (przy pewnych wartościach wag i progów) Notacja 1 i 2

45 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 45 Dla dowolnego wektora wzorców wyjściowych rzeczywistych m-tej warstwy będziemy stosowali też symbol Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje Możemy też operować pojęciem macierzy wzorców wyjściowych rzeczywistych neuronów m-tej warstwy sieci dla danej macierzy wejść (przy pewnych wartościach wag i progów) Notacja 1 i 2

46 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 46 Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje  wektor wzorców wyjściowych docelowych m-tej warstwy sieci dla danego wektora wejść (przy pewnych wartościach wag i progów) Notacja 1 i 2

47 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 47 Sieci wielowarstwowe jednokierunkowe DODATEK 1 - Notacje Możemy też operować pojęciem macierzy wzorców wyjściowych docelowych neuronów m-tej warstwy sieci dla danej macierzy wejść (przy pewnych wartościach wag i progów) Notacja 1 i 2 Dla dowolnego wektora wzorców wyjściowych docelowych m-tej warstwy będziemy stosowali też symbol

48 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 48 Sieci wielowarstwowe jednokierunkowe DODATEK 2 Przetwarzanie realizowane przez sieć jednokierunkową wielowarstwową

49 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 49 Obliczanie odpowiedzi sieci (wzorców wyjściowych rzeczywistych) Dla m-tej warstwy możemy napisać lub gdzie: możemy traktować jako nieliniowy operator wektorowy Będziemy zakładali, że są identyczne dla całej warstwy i używali dla elementów wektora oznaczenia Przetwarzanie realizowane przez sieć

50 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 50 Przetwarzanie realizowane przez sieć Rozpisując dalej jak wyrażają się sygnały pobudzenia neuronów m-tej warstwy w notacji 1

51 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 51 Przetwarzanie realizowane przez sieć lub w notacji 2

52 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 52 Przetwarzanie realizowane przez sieć Poszczególne składowe wektora odpowiedzi m-tej warstwy wyrażają się zatem Notacja 1 Notacja 2

53 Metody sztucznej inteligencji - Technologie rozmyte i neuronowe 2015/2016 Perceptrony proste nieliniowe i wielowarstwowe © Kazimierz Duzinkiewicz, dr hab. inż. Katedra Inżynierii Systemów Sterowania 53 Koniec zestawu slajdów