Norint atpažinti, ar modelis yra per daug pritaikytas, reikia suprasti per didelio pritaikymo sąvoką ir jos pasekmes mašininiam mokymuisi. Per didelis pritaikymas įvyksta, kai modelis ypač gerai veikia pagal mokymo duomenis, bet nesugeba apibendrinti iki naujų, nematytų duomenų. Šis reiškinys kenkia modelio nuspėjamumui ir gali lemti prastą našumą realaus pasaulio scenarijuose. „Google Cloud Machine Learning“ giliųjų neuroninių tinklų ir įverčių kontekste yra keletas rodiklių, kurie gali padėti nustatyti perteklinį pritaikymą.
Vienas dažnas permontavimo požymis yra reikšmingas modelio našumo treniruočių duomenims ir patvirtinimo arba bandymo duomenų našumo skirtumas. Kai modelis yra per daug pritaikytas, jis „įsimena“ mokymo pavyzdžius, užuot išmokęs pagrindinius modelius. Dėl to jis gali pasiekti didelį treniruočių rinkinio tikslumą, bet sunkiai prognozuoja naujus duomenis. Įvertinus modelio veikimą atskirame patvirtinimo arba bandymo rinkinyje, galima įvertinti, ar neįvyko permontavimas.
Kitas permontavimo požymis yra didelis modelio mokymo ir patvirtinimo klaidų rodiklių skirtumas. Mokymo proceso metu modelis bando sumažinti savo klaidą koreguodamas savo parametrus. Tačiau, jei modelis tampa per sudėtingas arba mokomas per ilgai, jis gali pradėti derinti triukšmą į mokymo duomenis, o ne į pagrindinius modelius. Tai gali lemti mažą mokymo klaidų lygį, bet žymiai didesnį patvirtinimo klaidų lygį. Šių klaidų lygio tendencijų stebėjimas gali padėti nustatyti perteklinį montavimą.
Be to, modelio praradimo funkcijos elgsenos stebėjimas gali suteikti įžvalgų apie permontavimą. Nuostolių funkcija matuoja neatitikimą tarp prognozuojamų modelio rezultatų ir faktinių tikslų. Per daug pritaikytame modelyje treniruočių duomenų praradimo funkcija gali ir toliau mažėti, o patvirtinimo duomenų praradimas pradeda didėti. Tai rodo, kad modelis vis labiau specializuojasi pagal mokymo pavyzdžius ir praranda gebėjimą apibendrinti.
Taip pat galima naudoti reguliavimo metodus, kad būtų išvengta per didelio pritaikymo. Reguliavimas įveda baudos terminą nuostolių funkcijai, neleidžiant modeliui tapti pernelyg sudėtingu. Tokie metodai, kaip L1 arba L2 reguliavimas, išmetimas arba ankstyvas sustabdymas, gali padėti sumažinti perteklinį pritaikymą, nes modelio mokymosi procesą suvaržo.
Svarbu pažymėti, kad permontavimui gali turėti įtakos įvairūs veiksniai, įskaitant mokymo duomenų dydį ir kokybę, modelio architektūros sudėtingumą ir pasirinktus hiperparametrus. Todėl labai svarbu atidžiai įvertinti šiuos veiksnius treniruojant ir vertinant modelius, kad būtų išvengta per didelio pritaikymo.
Norint atpažinti giliųjų neuronų tinklų ir įverčių perteklių, reikia analizuoti patvirtinimo arba bandymo duomenų našumą, stebėti skirtumą tarp mokymo ir patvirtinimo klaidų dažnių, stebėti praradimo funkcijos elgesį ir taikyti reguliavimo metodus. Suvokus šiuos rodiklius ir imantis atitinkamų priemonių, galima sušvelninti žalingą permontavimo poveikį ir sukurti patikimesnius bei apibendrinamus modelius.
Kiti naujausi klausimai ir atsakymai apie Gilūs neuroniniai tinklai ir įverčiai:
- Ar gilus mokymasis gali būti interpretuojamas kaip modelio, pagrįsto giliuoju neuroniniu tinklu (DNN) apibrėžimas ir mokymas?
- Ar Google TensorFlow sistema leidžia padidinti abstrakcijos lygį kuriant mašininio mokymosi modelius (pvz., pakeičiant kodavimą konfigūracija)?
- Ar teisinga, kad jei duomenų rinkinys yra didelis, reikia mažiau vertinti, o tai reiškia, kad vertinimui naudojamo duomenų rinkinio dalis gali būti sumažinta padidinus duomenų rinkinio dydį?
- Ar galima lengvai valdyti (pridedant ir pašalinant) sluoksnių skaičių ir mazgų skaičių atskiruose sluoksniuose keičiant masyvą, pateiktą kaip paslėptas giliojo neuroninio tinklo (DNN) argumentas?
- Kas yra neuroniniai tinklai ir gilieji neuroniniai tinklai?
- Kodėl gilieji neuroniniai tinklai vadinami giliais?
- Kokie yra daugiau mazgų pridėjimo prie DNN privalumai ir trūkumai?
- Kas yra nykstančio gradiento problema?
- Kokie yra giliųjų neuroninių tinklų naudojimo trūkumai, palyginti su linijiniais modeliais?
- Kokius papildomus parametrus galima pritaikyti DNN klasifikatoriuje ir kaip jie prisideda prie giluminio neuroninio tinklo tikslinimo?
Peržiūrėkite daugiau klausimų ir atsakymų giluminiuose neuroniniuose tinkluose ir įvertinimuose