Konspektai

Neuronų tinklai

9.6   (3 atsiliepimai)
Neuronų tinklai 1 puslapis
Neuronų tinklai 2 puslapis
Neuronų tinklai 3 puslapis
Neuronų tinklai 4 puslapis
Neuronų tinklai 5 puslapis
Neuronų tinklai 6 puslapis
Neuronų tinklai 7 puslapis
Neuronų tinklai 8 puslapis
Neuronų tinklai 9 puslapis
Neuronų tinklai 10 puslapis
Neuronų tinklai 11 puslapis
Neuronų tinklai 12 puslapis
Neuronų tinklai 13 puslapis
Neuronų tinklai 14 puslapis
Neuronų tinklai 15 puslapis
Neuronų tinklai 16 puslapis
Neuronų tinklai 17 puslapis
Neuronų tinklai 18 puslapis
Neuronų tinklai 19 puslapis
Neuronų tinklai 20 puslapis
www.nemoku.lt
www.nemoku.lt
Aukščiau pateiktos peržiūros nuotraukos yra sumažintos kokybės. Norėdami matyti visą darbą, spustelkite peržiūrėti darbą.
Ištrauka

 1. Įvadas į dirbtinius neoronų tinklus Dirbtiniai neuroniniai tinklai – skaitmeninių signalų apdorojimo, duomenų atpažinimo, klasifikavimo ir prognozavimo principas, turintis analogijų su žmogaus mąstymu. Šis principas buvo kuriamas imituojant žmogaus smegenų veikimą – informacijos talpinimą bei paiešką neuronų tinkluose (todėl šis principas dažnai dar yra vadinamas ir kitu vardu - daugiasluoksnis perceptronas). Žmogaus mąstymas paremtas tuo, kad jis, turėdamas „pradines taisykles“ (iš patirties ar pan.), pagal jas klasifikuoja objektus, ir jų atpažinimo metu gali papildyti klasifikavimo taisykles, arba atrasti naujas. Tačiau patį klasifikavimo principą atpažinimo sistema gauna ne formaliu keliu, o pati turi atrasti, remdamasi gauta informacija. Iš čia kyla pagrindinė neuroninių tinklų savybė ir analogas su žmogaus smegenimis, pagrindinis neuroninių tinklų privalumas – tai, kad jie gali būti apmokomi. Smegenis atstojančio tinklo struktūra ir neuronų funkcijos nėra visiškai fiksuojamos – kaupiant patirtį jos yra koreguojamos. Tai leidžia mokytis ir reaguoti į naujas situacijas, remiantis ankstesne patirtimi. Ryšiai tarp neuronų – dendritai - silpsta ir žūsta, jei yra visiškai nenaudojami, ir, atvirkščiai, kaskart kai tam tikras ryšys perduoda signalą, specialus algoritmas jį sustiprina. Žuvus kuriam ryšiui, neuronas gali išleisti naują "šaką" ir prisijungti prie kitų to paties ar kito sluoksnio neuronų. Jei naujasis ryšys pasirodo naudingas, jis yra sustiprinamas. Kitaip tariant, duomenys verčiami į didesnį ar mažesnį svorį, turintį įtakos sprendimui, todėl šių svorių parinkimas yra pagrindinis algoritmo uždavinys. 2. Dirbtinių neuroninių tinklų veikimas Dirbtinių neuroninių tinklų pagrindas – informacijos apdorojimo vienetas – neuronas, t.y. funkcija, įgijanti reikšmes iš binarines aibes {0, 1} – vaizdžiau {Melas, Tiesa}. Kadangi veiksmai kompiuteryje pagrįsti binarine algebra, šio principo panaudojimas yra paprastesnis nei kitų, nes gana efektyviai išnaudoja kompiuterio architektūros ypatumus. Kad suprastume šio principo panašumą su žmogaus smegenų veikla, panagrinėkime pavyzdį – pradinio žingsnio parinkimą pirmajame klasifikacijos etape, kai atsitiktiniu būdu bandoma parinkti funkciją, labiausiai aproksimuojančią turimus duomenis: 1 pav. Intervalo, kuriame funkcijos reikšmė yra arčiausiai, radimas. Kaip matyti 1 pav., funkcija, aproksimuojanti duomenis, yra netiksli, kai žingsnis X yra per didelis. Norint rasti duomenis A (t.y. intervalą, kuriame funkcijos reikšmė yra arčiausiai šių duomenų), svarbiausias uždavinys yra pasirinkti teisingą intervalą. Akivaizdu, kad reikalinga informacija yra labiausiai tikėtina pirmame ar ketvirtame intervaluose, be tik ne trečiame, nes čia funkcijos reikšmė yra labiausiai nutolusi nuo informacijos A. Tad klaidingai pasirinkę intervalą, kad ir kaip smulkinsime intervalus, mes informacijos A nerasime. Analogą galime įžvelgti ir žmogaus mąstyme, jam ką nors laikinai užmiršus ir besistengiant prisiminti. Svarbu „užsikabinti“ už tinkamų detalių, vaizdų ar pan., kurie padėtų reikalingą informaciją „atgaminti“. 3. Tiklo pritaikymas duomenims Kad būtų galima iliustruoti, kaip neuronų tinklai yra pritaikomi duomenims, pirmiausiai pradedama mažu iliustraciniu pavyzdžiu. Nors metodas yra bereikšmis tokiame mažame pavyzdyje, tačiau yra naudinga norint paaiškinti pagrindinius žingsnius ir veikimą prieš parodymą, kada skaičiavimai yra baigti, ir norint sujungti visus skirtingus neuronų tinklų duomenų pritaikymo aspektus. 3.1.1 1 pavyzdys: Duomenų rinkinys iš nedaug duomenų Atidžiai apžiūrėkime šį smulkų duomenų rinkinį. Lentelėje 3.1.1 pateikiami tam tikro lydyto sūrio degustacijos rezultatai. Dviejų nepriklausomų dydžių reikšmės (riebalų ir druskos) parodo santykinį riebalų ir druskos dalyvavimą tam tikroje sūrio imtyje (0 yra minimalus įmanomas kiekis apdirbimo procese, o 1 yra maksimalus). Išvesties kintamasis šiame pavyzdyje yra vartotojo pritarimas sūrio skoniui, kur „1” pažymi, kad degustacijos dalyviai mėgsta sūrį, o „0“ žymi tuos, kurie nemėgsta. 3.1.2 iliustracijos schemoje aprašomas tipiškas neuronų tinklas, kuris gali būti naudojamas prognozuoti šių reikšmių tinkamumui. Pavyzdyje sunumeruoti susikirtimo taškus nuo 1 iki 6. Taškai 1 ir 2 priklauso įvesties sluoksniui, taškai 3, 4 ir 5 - paslėptam, o paskutinis 6 taškas - išvesties sluoksniui. Dydžiai, parašyti ant jungiančių rodyklių, yra pusiausvyros koeficientai. Šie koeficientai, esantys ant rodyklių nuo taško i iki taško j, pažymėti . Pusiausvyros taškų paklaida, pažymėta , yra išvesties atkarpa nuo susikirtimo taško j. Visa tai toliau aprašoma detaliau. Bandymo Nr. Riebalų kiekis Druskos kiekis Pritarimas/atmetimas 1 0,2 0,9 1 2 0,1 0,1 0 3 0,2 0,4 0 4 0,2 0,5 0 5 0,4 0,5 1 6 0,3 0,8 1 Lentelė 3.1.1: sūrio degustacijos, kurioje dalyvavo 6 asmenys ir buvo 2 nepriklausomi dydžiai, rezultatų lentelė. Iliustracija 3.1.2: nesudėtingas neuronų tinklų schemos pavyzdys. Apskritimai reiškia susikirtimo taškus, ant rodyklių yra pusiausvyros koeficientas, o - paklaida. 3.1.2 Išvesties duomenų skaičiavimas susikirtimo taške Atskirai aptarėme įvesties ir išvesties taškus kiekviename iš trijų tipų sluoksnių – įvesties, paslėpto ir išvesties. Pagrindinis skirtumas – naudojamos skirtingos funkcijos nuo įvesties ir išvesties taškų. Įvesties taškai kaip įvesties reikšmę priima nepriklausomų dydžių rezultatus. Jų išvesties duomenys yra tokie patys kaip ir įvesties. Jei turime nepriklausomus dydžius p, tai įvesties sluoksnis dažniausiai apims p susikirtimo taškus. Kadangi mūsų pavyzdyje yra du nepriklausomi dydžiai, todėl įvesties sluoksnyje yra du įvesties taškai (žr. 3.1.2 iliustraciją). Kiekvienas iš šių taškų tiekia informaciją kiekvienam paslėpto sluoksnio taškui. Pirmas stebėjimas: įvesties duomenys į įvesties sluoksnį yra riebumas, lygus 0,2 ir sūrumas, lygus 0,9. Išvesties duomenys iš šio lygmens yra tokie patys, t.y. = 0,2 ir = 0,9. Paslėpto sluoksnio taškai kaip įvesties duomenis priima įvesties sluoksnio išvesties reikšmes. Paslėptas sluoksnis šiame pavyzdyje susideda iš trijų taškų. Kiekvienas iš šių taškų priima duomenis iš visų įvesties sluoksnio taškų. Kad apskaičiuotume paslėpto sluoksnio išvesties reikšmes, skaičiuojame įvesties duomenų svorinę sumą ir tada pritaikome atitinkamą funkciją. Iš duomenų reikšmių rinkinio apskaičiuojame taško j išvesties duomenis imant svorinę sumą , kur yra pusiausvyros koeficientai, kurie pradžioje yra parenkami atsitiktinai, o vėliau yra pritaikoma tinklo „mokymosi“ procese., dar vadinama taško j „paklaida“, yra konstanta, kuri kontroliuoja taško j vykdymą. Toliau naudojama šios sumos g funkciją. Funkcija g, dar vadinama perdavimo funkcija, yra monotoniška funkcija ir pavyzdys būtų tiesinė funkcija (g(s) = bs), rodiklinė funkcija (g(s) = exp(bs)) ir logistinė/sigmoidinė funkcija . Ši paskutinė funkcija yra labiausiai naudojama funkcija neuronų tikluose. Jai būdigas svyravimo efektas nuo mažiausių iki didžiausių reikšmių, bet kitimo srityje yra beveik tiesė, o funkcijos reikšmė yra tarp 0,1 ir 0,9. Jei naudojama logistinė funkcija, tada išvesties duomenis iš taško j, esančio paslėptame sluoksnyje, galima išreikšti šitaip: (3.1.1) 3.1.3 Pusiausvyros koeficientų inicijavimas ir dydžiai paprastai yra pradėti nuo mažų skaičių kitimo srityje 0,000,05. Tokie dydžiai reiškia nežinojimo būklę tikluose, panašiai kaip modelyje be nepriklausomo dydžio. Pradiniai pusiausvyros koeficientai yra naudojami pirmame testavime. Grįžtant prie pavyzdžio, darome prielaidą, kad pirminiai pusiausvyros koeficientai taške 3 yra , ir (kaip parodyta 3.1.3 iliustracijoje). Naudojant logistinę funkciją galima apskaičiuoti trečio taško, esančio paslėptame sluoksnyje, išvesties duomenis (naudojant pirmą stebėjimą) šitaip: Iliustracija 3.1.3: schema rodo pirminius pusiausvyros koeficientus, įvesties ir išvesties duomenis iš pirmo stebėjimo (šio pavyzdžio). Jei yra daugiau nei vienas paslėptas sluoksnis, tai taikomas tas pats skaičiavimas, išskyrus tai, kad antro, trečio ir t.t. paslėpto sluoksnio įvesties duomenys bus pirmesnio paslėpto sluoksnio išvesties duomenys. Tai reiškia, kad įvesties duomenų skaičius į tam tikrą tašką yra vienodas skaičiui iš ankstesnio sluoksnio taškų. Galiausiai išvesties duomenys pasiekia pasktinio paslėpto sluoksnio įvesties reikšmes. Naudojama ta pati funkcija kaip ir ankčiau sukuriant išvesties duomenis. Kitaip tariant, imamas jo įvesties dydžių svorinis vidurkis ir tada naudojama g funkcija. Tai yra nepriklausomas modelio dydis. Klasifikacijai naudojamos galutinės reikšmės (dvinariam atsakui) arba išvesties taškai su didžiausia reikšme (daugiau nei 2 klasėms). Grįžtant prie pavyzdžio, vienintelis išvesties taškas (6 taškas) gauna duomenis iš visų trijų paslėpto lygmens taškų. Nepriklausomus dydžius galima apskaičiuoti pagal: Kad būtų galima priskirti įrašus tam tikrai grupei, naudojamas galutinis dydis 0,5 ir gaunama klasifikacija į „1“ klasę (nes 0,506>0,5). 3.1.4 Ryšys tarp tiesinės ir logistinės regresijų Apžiūrėkime neuronų tinklus su vienu išvesties tašku ir be paslėptų sluoksnių. Duomenų rinkiniui su nepriklausomu dydžiu p išvesties tškas gauna reikšmes , tuomet ima jų svorinę sumą ir naudoja g funkciją. Užtai neuronų tinklų išvestis yra . Pirmiausiai apžiūrėkime skaitmeninius išvesties kintamuosius y. Jei g yra tapati funkcijai (g(s)=s), tai išvestis nesudėtinga: Kaip tik tai yra tolydu kartotinės tiesinės regresijos formulavimui! Tai reiškia, kad neuronų tinklų (be paslėptų sluoksnių) vienintelis išvesties taškas ir tapati g funkcija ieško tik tiesinių ryšių tarp atsako ir nepriklausomų dydžių. Dabar apžiūrėkime dvinarės išvesties kintamuosius y. Jei g yra logistinė funkcija, tai išvestis paprasta , kuri yra tolydi logistinės regresijos formuluotei! Abiem atvejais, nors ir formulavimas yra tolydus tiesinės ir logistinės regresijos modeliams, tam tikri rezultatiniai įverčiai gali skirtis, nes įvertinimo metodas yra kitoks. Apytikris neuroninio tinklo skaičiavimo metodas skiriasi nuo mažiausiųjų kvadratų metodo. Metodas skaičiuoja koeficientus tiesinėje regresijoje arba maksimalios tikimybės metodas naujomas logistinėje regresijoje. Tai metodas, pagal kurį neuronų tinklai „moko“ toliau. 3.1.5 Išankstinis duomenų apdorojimas Neuronų tinklai veikia geriausiai, kai nepriklausomi dydžiai ir atsako kintamieji yra intevale [0, 1]. Dėl šios priežasties visi kintamieji, prieš įtraukiant į neuronų tinklus, turi būti priskirti šiam intervalui [0, 1]. Skaitiniam kintamajam X, kuris naudoja dydžius , priklausančius kitimo sričiai [a, b] (a

Daugiau informacijos...

Šį darbą sudaro 3704 žodžiai, tikrai rasi tai, ko ieškai!

★ Klientai rekomenduoja


Šį rašto darbą rekomenduoja mūsų klientai. Ką tai reiškia?

Mūsų svetainėje pateikiama dešimtys tūkstančių skirtingų rašto darbų, kuriuos įkėlė daugybė moksleivių ir studentų su skirtingais gabumais. Būtent šis rašto darbas yra patikrintas specialistų ir rekomenduojamas kitų klientų, kurie po atsisiuntimo įvertino šį mokslo darbą teigiamai. Todėl galite būti tikri, kad šis pasirinkimas geriausias!

Detali informacija
Darbo tipas
Lygis
Universitetinis
Failo tipas
Word failas (.doc)
Apimtis
20 psl., (3704 ž.)
Darbo duomenys
  • Informacinių technologijų konspektas
  • 20 psl., (3704 ž.)
  • Word failas 384 KB
  • Lygis: Universitetinis
www.nemoku.lt Atsisiųsti šį konspektą
Privalumai
Pakeitimo garantija Darbo pakeitimo garantija

Atsisiuntei rašto darbą ir neradai jame reikalingos informacijos? Pakeisime jį kitu nemokamai.

Sutaupyk 25% pirkdamas daugiau Gauk 25% nuolaidą

Pirkdamas daugiau nei vieną darbą, nuo sekančių darbų gausi 25% nuolaidą.

Greitas aptarnavimas Greitas aptarnavimas

Išsirink norimus rašto darbus ir gauk juos akimirksniu po sėkmingo apmokėjimo!

Atsiliepimai
www.nemoku.lt
Dainius Studentas
Naudojuosi nuo pirmo kurso ir visad randu tai, ko reikia. O ypač smagu, kad įdėjęs darbą gaunu bet kurį nemokamai. Geras puslapis.
www.nemoku.lt
Aurimas Studentas
Puiki svetainė, refleksija pilnai pateisino visus lūkesčius.
www.nemoku.lt
Greta Moksleivė
Pirkau rašto darbą, viskas gerai.
www.nemoku.lt
Skaistė Studentė
Užmačiau šią svetainę kursiokės kompiuteryje. :D Ką galiu pasakyti, iš kitur ir nebesisiunčiu, kai čia yra viskas ko reikia.
Palaukite! Šį darbą galite atsisiųsti visiškai NEMOKAMAI! Įkelkite bet kokį savo turimą mokslo darbą ir už kiekvieną įkeltą darbą būsite apdovanoti - gausite dovanų kodus, skirtus nemokamai parsisiųsti jums reikalingus rašto darbus.
Vilkti dokumentus čia:

.doc, .docx, .pdf, .ppt, .pptx, .odt