Sun`iy neyron turlari asosida jarayon va tizimlarnimodellarlashtirish LAB
O’ZBEKISTON RESPUBLIKASI OLIY VA O’RTA MAXSUS TA’LIM VAZIRLIGI SAMARQAND DAVLAT UNIVERSITETI RAQAMLI TEXNOLOGIYALAR FAKULTETI INFORMATIKA O’QITISH METODIKASI YO’NALISHI LABORATORIYA ISHI MAVZU: Sun`iy neyron turlari asosida jarayon va tizimlarnimodellarlashtirish Samarqand-2021 MAVZU: Sun`iy neyron turlari asosida jarayon va tizimlarni modellarlashtirish
1. ANNlarning tarkibiy qismlari 2. SUGENO algoritmi asosida noqatiy xulosa chiqarish 3. MAMDAE algoritmi asosida noqatiy xulosa chiqarish mexanizmini shakllantirish
Sun`iy neyron turlari asosida jarayon va tizimlarnimodellarlashtirish Neyron tarmoqlari misollarni qayta ishlash orqali o'rganadi (yoki o'qitiladi), ularning har biri ma'lum bo'lgan "kirish" va "natija" ni o'z ichiga oladi, bu ikkalasi o'rtasida aniqlik tarkibidagi ma'lumotlar assotsiatsiyasini shakllantiradi. Nerv tarmog'ini keltirilgan misoldan o'rgatish odatda tarmoqning qayta ishlangan chiqishi (ko'pincha bashorat qilish) va maqsadli chiqish o'rtasidagi farqni aniqlash orqali amalga oshiriladi. Bu xato. Keyin tarmoq o'z qoidalariga binoan va ushbu xatolik qiymatidan foydalangan holda o'z vaznli assotsiatsiyalarini sozlaydi. Ketma-ket tuzatishlar neyron tarmoqni maqsadli chiqishga tobora ko'proq o'xshash ishlab chiqarishni keltirib chiqaradi. Ushbu tuzatishlarning etarli sonidan so'ng ma'lum mezonlarga asoslanib, mashg'ulot tugatilishi mumkin. Bu sifatida tanilgan nazorat ostida o'rganish . Bunday tizimlar, misollarni ko'rib chiqish orqali vazifalarni bajarishni "o'rganadilar", odatda vazifalarga xos qoidalar bilan dasturlashtirilmasdan. Masalan, ichida tasvirni aniqlash , ular qo'lda qilingan misollarni tahlil qilish orqali mushuklarni o'z ichiga olgan rasmlarni aniqlashni o'rganishlari mumkin belgilangan "mushuk" yoki "mushuk yo'q" sifatida va boshqa rasmlarda mushuklarni aniqlash uchun natijalardan foydalanish. Ular buni mushuklar haqida oldindan bilmasdan qilishadi, masalan, ularning mo'ynasi, dumlari, mo'ylovi va mushukka o'xshash yuzlari. Buning o'rniga, ular avtomatik ravishda ishlov beradigan misollardan aniqlovchi xususiyatlarni yaratadilar. ANNlarning tarkibiy qismlari Neyronlar ANNlar tarkib topgan sun'iy neyronlar kontseptual ravishda biologik olingan neyronlar . Har bir sun'iy neyronning kirishlari mavjud va ular bir nechta boshqa neyronlarga yuborilishi mumkin bo'lgan bitta ishlab chiqarishni ishlab chiqaradi. Kirish rasmlar yoki hujjatlar kabi tashqi ma'lumotlar namunasining xususiyat qiymatlari yoki boshqa neyronlarning chiqishi bo'lishi mumkin. Final natijalari chiqish neyronlari asab tarmog'i vazifani bajaradi, masalan, rasmdagi ob'ektni tanib olish. Neyronning chiqishini topish uchun avval biz tomonidan tortilgan barcha kirishlarning tortilgan yig'indisini olamiz og'irliklar ning ulanishlar kirishlardan neyrongacha. Biz qo'shamiz tarafkashlik ushbu summa uchun muddat. Ushbu tortilgan yig'indiga ba'zan deyiladi faollashtirish . Ushbu tortilgan yig'indidan keyin (odatda chiziqli bo'lmagan) faollashtirish funktsiyasi mahsulotni ishlab chiqarish. Dastlabki yozuvlar tashqi ma'lumotlar, masalan, rasm va hujjatlar. Rasmdagi ob'ektni tanib olish kabi yakuniy natijalar vazifani bajaradi. [40] Aloqalar va og'irliklar Tarmoq ulanishlardan iborat bo'lib, har bir ulanish bitta neyronning chiqishini boshqa neyronga kirish sifatida ta'minlaydi. Har bir ulanishga uning nisbiy ahamiyatini anglatadigan og'irlik beriladi. [38] Berilgan neyron bir nechta kirish va chiqish aloqalariga ega bo'lishi mumkin. [41]
Ko'paytirish funktsiyasi The tarqalish funktsiyasi oldingi neyronlarning chiqishi va ularning birikmalaridan neyronga kirishni og'irlikdagi summa sifatida hisoblab chiqadi. [38] A tarafkashlik targ'ibot natijasiga muddat qo'shilishi mumkin. [42] Tashkilot Neyronlar odatda bir nechta qatlamlarga bo'linadi, ayniqsa chuqur o'rganish . Bir qatlam neyronlari faqat oldingi va darhol keyingi qatlamlarning neyronlari bilan bog'lanadi. Tashqi ma'lumotlarni qabul qiladigan qatlam bu kirish qatlami . Yakuniy natija beradigan qatlam bu chiqish qatlami . Ularning orasidagi nol yoki undan ko'p yashirin qatlamlar . Bir qavatli va qatlamsiz tarmoqlardan ham foydalaniladi. Ikki qatlam o'rtasida bir nechta ulanish naqshlari mumkin. Ular bo'lishi mumkin to'liq ulangan , bitta qatlamdagi har bir neyron keyingi qatlamdagi har bir neyron bilan bog'langan holda. Ular bo'lishi mumkin hovuzlash , bu erda bir qatlamdagi neyronlar guruhi keyingi qatlamdagi bitta neyronga ulanadi va shu bilan ushbu qatlamdagi neyronlarning sonini kamaytiradi. [43] Faqat shu kabi birikmalarga ega neyronlar a ni hosil qiladi yo'naltirilgan asiklik grafik va sifatida tanilgan feedforward tarmoqlari . [44] Shu bilan bir qatorda, bir xil yoki oldingi qatlamlarda neyronlar orasidagi bog'lanishni ta'minlaydigan tarmoqlar sifatida tanilgan takroriy tarmoqlar . [45] Giperparametr Asosiy maqola: Giperparametr (mashinada o'rganish) Giperparametr doimiydir parametr uning qiymati o'quv jarayoni boshlanishidan oldin belgilanadi. Parametrlarning qiymatlari o'rganish orqali olinadi. Giperparametrlarga misollar kiradi o'rganish darajasi , yashirin qatlamlar soni va partiyaning hajmi. [46] Ba'zi giperparametrlarning qiymatlari boshqa giperparametrlarga bog'liq bo'lishi mumkin. Masalan, ba'zi qatlamlarning kattaligi qatlamlarning umumiy soniga bog'liq bo'lishi mumkin. Shuningdek qarang: Matematik optimallashtirish , Baholash nazariyasi va Mashinada o'qitish O'rganish - bu kuzatuvlarning namunalarini ko'rib chiqish orqali vazifani yaxshiroq bajarish uchun tarmoqni moslashtirish. O'rganish natijaning aniqligini oshirish uchun tarmoqning og'irliklarini (va ixtiyoriy chegaralarini) sozlashni o'z ichiga oladi. Bu kuzatilgan xatolarni minimallashtirish orqali amalga oshiriladi. Qo'shimcha kuzatuvlarni o'rganishda xatolik darajasi foydali ravishda kamaytirilmasa, o'rganish tugallanadi. O'rgandan keyin ham xato darajasi odatda 0 ga etmaydi. Agar o'rgangandan so'ng xato darajasi juda yuqori bo'lsa, tarmoq odatda qayta ishlab chiqilishi kerak. Amalda bu a ni aniqlash orqali amalga oshiriladi xarajat funktsiyasi bu o'rganish paytida vaqti-vaqti bilan baholanadi. Uning ishlab chiqarish hajmi pasayishda davom etar ekan, o'rganish davom etadi. Xarajat tez-tez a sifatida belgilanadi statistik uning qiymati faqat taxminiy bo'lishi mumkin. Chiqishlar aslida raqamlar, shuning uchun xato kam bo'lsa, chiqish (deyarli mushuk) va to'g'ri javob (mushuk) o'rtasidagi farq juda oz. Kuzatishlar bo'yicha farqlarning umumiy miqdorini kamaytirishga o'rganish. [38] Ko'pgina o'quv modellari to'g'ridan-to'g'ri dastur sifatida qaralishi mumkin optimallashtirish nazariya va statistik baho .
O'quv darajasi O'quv darajasi model har bir kuzatuvdagi xatolarni to'g'rilash uchun zarur bo'lgan tuzatish bosqichlarining hajmini belgilaydi. O'qishning yuqori darajasi mashg'ulot vaqtini qisqartiradi, ammo yakuniy aniqligi pastroq, o'qish darajasi pastroq bo'lsa, ko'proq aniqlik olish imkoniyati mavjud. Kabi optimallashtirishlar Quickprop birinchi navbatda xatolarni minimallashtirishni tezlashtirishga qaratilgan bo'lib, boshqa yaxshilanishlar asosan ishonchliligini oshirishga harakat qiladi. Tarmoq ichidagi o'zgaruvchan ulanish og'irliklari kabi tebranishdan saqlanish va konvergentsiya tezligini oshirish uchun yaxshilanishlar adaptiv ta'lim darajasi tegishli ravishda ko'payadi yoki kamayadi. [47] Impuls momenti tushunchasi gradient va oldingi o'zgarish o'rtasidagi muvozanatni og'irlik sozlamalari avvalgi o'zgarishga ma'lum darajada bog'liq bo'lishi uchun tortish imkonini beradi. 0 ga yaqin momentum gradiyentni ta'kidlaydi, 1 ga yaqin qiymat oxirgi o'zgarishni ta'kidlaydi. Xarajat funktsiyasi Xarajat funktsiyasini aniqlash mumkin bo'lsa-da maxsus , tez-tez tanlov funktsiyaning kerakli xususiyatlari bilan belgilanadi (masalan qavariqlik ) yoki u modeldan kelib chiqqanligi sababli (masalan, ehtimollik modelida modelning) orqa ehtimollik teskari xarajat sifatida ishlatilishi mumkin). Orqaga targ'ib qilish Asosiy maqola: Orqaga targ'ib qilish Backpropagation - bu o'rganish paytida topilgan har bir xato o'rnini qoplash uchun ulanish og'irliklarini sozlash usuli. Xato miqdori ulanishlar orasida samarali ravishda bo'linadi. Texnik jihatdan, backprop hisoblaydi gradient (lotin) ning xarajat funktsiyasi og'irliklarga nisbatan berilgan holat bilan bog'liq. Og'irlikni yangilash orqali amalga oshirilishi mumkin stoxastik gradient tushish yoki boshqa usullar, masalan Ekstremal o'quv mashinalari , [48] "Yoqilg'i yo'q" tarmoqlari, [49] orqaga qaytmasdan mashq qilish, [50] "vaznsiz" tarmoqlar, [51] [52] va konnektistik bo'lmagan neyron tarmoqlar . Paradigmalarni o'rganish Uchta asosiy o'rganish paradigmalari nazorat ostida o'rganish , nazoratsiz o'rganish va mustahkamlashni o'rganish . Ularning har biri ma'lum bir o'quv vazifasiga mos keladi Nazorat ostida o'rganish Nazorat ostida o'rganish juftlashtirilgan kirish va kerakli natijalar to'plamidan foydalanadi. O'quv vazifasi har bir kirish uchun kerakli natijani ishlab chiqarishdir. Bunday holda xarajat funktsiyasi noto'g'ri ajratmalarni yo'q qilish bilan bog'liq. [53] Odatda ishlatiladigan narx bu o'rtacha kvadratik xato , bu tarmoq chiqishi va kerakli chiqish o'rtasidagi o'rtacha kvadratik xatoni minimallashtirishga harakat qiladi. Nazorat ostida o'rganish uchun mos vazifalar naqshni aniqlash (shuningdek, tasnif deb ham ataladi) va regressiya (funktsiyani yaqinlashtirish deb ham ataladi). Nazorat ostidagi ta'lim ketma-ket ma'lumotlarga ham tegishli (masalan, qo'lda yozish, nutq va imo- ishoralarni aniqlash ). Buni "o'qituvchi" bilan o'rganish, shu vaqtgacha olingan echimlar