Uczenie maszynowe(3), uczenie maszynowe

[ Pobierz całość w formacie PDF ]
//-->Przygotowane na podstawieWybrane zagadnieniauczeniamaszynowegoZastosowania Informatyki wInformatyce – W2Krzysztof Krawiec1.2.3.T. Mitchell,Machine LearningS.J. Russel, P. Norvig,ArtificialIntelligence – A modern approachP. Cichosz,Systemy uczące sięPlan1.Definicja zadania uczeniaUczenie = automatyczne modyfikowanie(się) systemu uczącego w celupolepszania skutecznościRealizowane przez pozyskiwanie wiedzy zdanych uczącychWprowadzenie do UM1.2.paradygmat uczenia sie z przykladowproblemy klasyfikacji i regresji2.3.4.Klasyfikator minimalnoodleglosciowyDrzewa decyzyjneRozwinięciaPojęcia podstawoweDane uczące (trainingdata):dane z których system uczący się uczy się,pozyskując wiedzęTypowy ‘przypadek uŜycia’systemu uczącego sięProces ‘odpytywania’Nowa dana(przykład)Proces uczeniaDane ucząceAlgorytm uczący sięNauczony system(np. klasyfikator)System uczący się (learning/inductionalgorithm)algorytm pozyskujący wiedzę z danych uczącychKlasyfikator (classifier)ostateczna reprezentacja wiedzy wygenerowanaprzez system uczący sięDecyzja systemu1W ramach tego wykładuograniczymy się do:Uczenie się z przykładów (learningfromexamples):dane uczące to przykładyprawidłowych decyzji podjętych w przeszłości(Uczenie się z innych danych niŜ przykłady moŜliwe,ale rzadkie w praktyce)Problem gry w tenisa/golfaCel: Mając dane o warunkach pogodowych,podejmij decyzję czy grać w tenisa czy teŜ nieMoŜliwe sposoby osiągnięcia celu:1.2.Reprezentacja przykładów w postaci par atrybut-wartość (attribute-value)(Inne reprezentacje moŜliwe, np. teksty)Ręczna konstrukcja ‘algorytmu’ (reguły decyzyjnej)=> system ekspercki (poza zakresem tego wykładu)Automatyczne pozyskanie wiedzy z danych =>uczenie maszynoweProblem gry w tenisaAnalogie w terminologiistatystycznejPrzykłady – obserwacjeAtrybuty – zmienne niezaleŜneZmienna decyzyjna – zmienna zaleŜnaSkale atrybutówNominalnaszczególny przypadek: atrybut binarnyOdmiany zadania uczenia się zprzykładówAtrybut decyzyjny (zmienna zaleŜna)dyskretny -> klasyfikacja (classification)Atrybut decyzyjny ciągły -> regresja(regression)W ramach przedmiotu skupimy się naklasyfikacjiPorządkowaMetryczne:PrzedziałowaIlorazowa2MotywacjeBrak wiedzy o badanym zjawiskuNp. robot poruszający się w nieznanymwcześniejśrodowiskuReprezentacje wiedzy... stosowane w systemach uczących się:Wybrane przykłady ucząceDrzewa decyzyjneReguły decyzyjneSieci neuronoweRozkłady prawdopodobieństw…‘Lenistwo’ projektanta systemuCzasami łatwiej nauczyć system niŜkonstruować go ręcznie od zeraDuŜa liczba atrybutówDuŜa liczba przykładówCele uczenia1.Który system/algorytm uczący sięjest lepszy?Miary skuteczności systemów uczących się:Trafność/błąd klasyfikowania: procentpoprawnie/niepoprawnie zaklasyfikowanychprzykładówCzułość/specyficznośćMniej istotne:czasochłonność procesu uczeniaczasochłonność procesu testowania2.Skonstruuj moŜliwie prostą hipotezęmoŜliwie dobrze opisującą (zgodną z)przykładami uczącymiSkonstruuj model wyjaśniającyobserwowane zjawiskoPoŜądane właściwościPoŜądane właściwości systemów uczących się:Wysoka trafność klasyfikowaniaw tym na nowych przykładach, czyli => zdolnośćuogólnianiaReprezentacja graficznaChwilowo załóŜmyŜe:1.Atrybuty Temperature i Humidity sąciągłe2.Inne atrybuty są nieistotneOdporność na szumy (na atr. warunkowych idecyzyjnym)Szybkość działania:Szybkość uczeniaSzybkość odpytywania3Reprezentacja graficznaPrzykłady negatywne (No)Przykłady pozytywne (Yes)HumidityKlasyfikatoryminimalnoodległościoweTempIdeaKlasyfikuj nowe przykłady na podstawie ichpodobieństwa do przykładów uczącychUczenie: Zapamiętajwszystkieprzykłady ucząceOdpytywanie: Dla nowego przykładu X:Znajdź przykład uczący Y najbardziejpodobnydo XZaklasyfikuj X do tej samej klasy do której naleŜy YFunkcja podobieństwaZazwyczaj: podobieństwo = 1/odległość(np. odległość Euklidesowa)Im mniejsza odległość, tym większepodobieństwoAlgorytm najbliŜszego sąsiada (nearestneighbour, NN)Działanie klasyfikatora NNPrzykłady negatywne (No)Przykłady pozytywne (Yes)HumidityDziałanie klasyfikatora NNPrzykłady negatywne (No)Przykłady pozytywne (Yes)HumidityTempTemp4Cechy klasyfikatora NNZalety:ProstotaBardzo szybki proces uczeniaRozszerzenia NNkNN: wykorzystaj k>1 najbliŜszychsąsiadów do zaklasyfikowania nowegoprzykładuk najbliŜszych sąsiadów przeprowadzagłosowanie (większościowe) nadprzynaleŜnością nowego przykładuWady:DuŜe zapotrzebowanie na pamięćPowolne odpytywanieWiedza = przykłady uczące (brak reprezentacjiwiedzy)Wszystkie atrybuty są tak samo istotneZnaczna podatność na przeuczenieKlasyfikator kNN, k=5Przykłady negatywne (No)Przykłady pozytywne (Yes)HumidityInne rozszerzeniaSpecjalne definicje odległości dlaatrybutów dyskretnych/nominalnychMetody zapamiętujące tylkoniektóreprzykłady uczące (instance-basedlearning,IBL)Krytyczne jest zapamiętanie przykładówuczących leŜących na granicach klasdecyzyjnychTempIdea IBL2Przykłady negatywne (No)Przykłady pozytywne (Yes)Humidity‘Niepotrzebne’ przykładyucząceDrzewa decyzyjneTemp5 [ Pobierz całość w formacie PDF ]

  • zanotowane.pl
  • doc.pisz.pl
  • pdf.pisz.pl
  • emaginacja.xlx.pl
  •