97,52
|
99,89
|
VGG
|
TPE (800)
|
𝐿2
|
96,55
|
99,78
|
CNN-M
|
SVM [90]
|
𝐿2
|
98,00
|
99,60
|
Tajribalar shuni ko‘rsatadiki, har bir keyingi arxitektura oldingisiga qaraganda yurishni aniqlashda ko‘proq ketma-ket. VGG modelida taqdim etilgan kichik filtr yadrolari СNN-M modelidagi kattaroq filtrlarga qaraganda ko‘proq ma’lumot beruvchi xususiyatlarni o‘rganishga muvaffaq bo‘ladi. Bundan tashqari, past o‘lchamli TPEni o‘rgatish har doim 2 ko‘rsatkichli umumiy eng yaqin qo‘shni tasniflagichiga nisbatan aniqlikni oshiradi. Shunga qaramay, 𝐿1 ko‘rsatkich ko‘pincha muvaffaqiyatliroq bo‘lib chiqadi. TPE Evklid o‘xshashligini optimallashtirish sifatida o‘qitilganiga qaramay, eng yaxshi natija NN klassifikatorida identifikatorlarni o‘rnatish orasidagi 𝐿1 masofaga asoslangan holda erishiladi. Bu Manxetten masofasining asabiy yurish deskriptorlarini tahlil qilish uchun ko‘proq mos kelishini tasdiqlaydi.
Tavsiya etilgan modellarning aniqligi Kastro [90] Rank-1dan oshmasa-da, to‘g’ri belgi ko‘pincha eng ehtimollilar qatoriga kiradi.
Taklif etilayotgan usul tashqi ko‘rinishdagi kichik o‘zgarishlarga qanchalik sezgir ekanligini tekshirish uchun turli kiyim va tashish sharoitlari uchun tanib olish sifati alohida baholandi. Bunday ajratish natijalari 2.4-jadvalda keltirilgan va "oddiy" sharoitda tanib olish deyarli mukammal ekanligini ko‘rsatadi, poyabzalning o‘zgarishi va ryukzakning mavjudligi haqiqatan ham identifikatsiyani yanada murakkablashtiradi.
3.4-jadval
TUM-GAID ma’lumotlar to‘plamida turli sharoitlarda tanib olish sifati
Normal Backpack Shoes
Method Rank-1 Rank-5 Rank-1 Rank-5 Rank-1 Rank-5
VGG, 𝐿1 99,7% 100,0% 96,5% 99,7% 96,5% 100,0%
CNN + SVM [90], 𝐿2 99,7% 100,0% 97,1% 99,4% 97,1% 99,4%
VGG-ga o‘xshash arxitektura keyingi tajribalar uchun asosiysi sifatida tanlandi, chunki u TUM ma’lumotlar bazasida eng yaxshi natijalarni berdi. Xuddi shu VGG arxitekturasiga asoslangan yonma-yon koʻrinishdagi CASIA tan olinishi ham baholandi, ammo bu maʼlumotlar toʻplamidagi aniqlik ancha past boʻldi: 71,80% toʻgʻri javoblar 𝐿2 masofa va 74,93% 𝐿1 koʻrsatkichlari boʻyicha. Bu CASIA ma’lumotlar bazasi kichik sonli sub’ektlar va katta shartlarning o‘zgaruvchanligini birlashtirgan qiyin mezon ekanligini tasdiqlaydi.
Tarmoqlar ma’lumotlar to‘plamining har birida o‘qitilgandan so‘ng, algoritmning umumiyligini tekshirish uchun ikkinchi tajribalar to‘plami o‘tkazildi, va x.k..
TUM CASIA
3.8-rasm - TUM va CASIA yurish ma’lumotlar bazalaridan yon ko‘rinishdagi ramkalar
Transfer o‘rganish bo‘yicha tajribalar. TUM-GAID videolari va CASIA ning yon ko‘rinishi juda o‘xshash ko‘rinadi (3.8-rasm), shuning uchun ikkala ma’lumotlar to‘plami uchun bitta algoritmdan foydalanish mumkinmi yoki yo‘qmi tekshiriladi. TUM-GAID ma’lumotlar to‘plamidagi algoritmlarning yaxshi natijalariga qaramay, CASIA ma’lumotlar to‘plamida bir xil parametrlarga ega bir xil algoritmning aniqligi juda past ekanligi ma’lum bo‘ldi. CASIA-da o‘qitilgan tarmoq TUM videolaridan xususiyatlarni olish uchun foydalanilganda ham xuddi shunday bo‘ladi. Ushbu tajribalar eng yaxshi hisoblangan arxitektura boʻlgan kesilgan VGG va qoʻshimcha oʻrnatishlarsiz 1 koʻrsatkichlariga asoslangan NN klassifikatori yordamida amalga oshirildi. 3.5-jadvalda bunday transfer tasnifining to‘g’riligi ko‘rsatilgan. One can see that all the results on CASIA
3.5-jadval
Transfer o'qitish sifati
Training Set
|
Testing Set
|
CASIA
|
TUM
|
CASIA
|
74,93%
|
67,41%
|
TUM
|
58,20%
|
97,20%
|
Ko‘rish mumkinki, CASIA-dagi barcha natijalar hali ham TUM-GAIDga qaraganda pastroq va tarmoq og’irliklarining uzatilishi dastlabki sifatni sezilarli darajada yomonlashtiradi.
Tajribalarning uchinchi qismi barqaror modelni faqat bittasini ishlatmasdan emas, balki ma’lumotlar to‘plamini birlashtirish orqali qurish mumkinligini o‘rganishga qaratilgan. Shu maqsadda neyron tarmoq mavjud ma’lumotlarning birlashishi bo‘yicha o‘qitildi va har bir test kichik to‘plami bo‘yicha baholandi. Ikkita ma’lumotlar bazasidagi barcha sub’ektlar bir-biridan farq qilganligi sababli, ularni bitta ma’lumotlar to‘plamiga birlashtirish mumkin va tarmoq ushbu birlashmada bir marta o‘qitilishi mumkin. Olingan model ikkala to‘plamdan ham yurish xususiyatlarini o‘rganishi va shuning uchun oldingi modellarga qaraganda umumiyroq bo‘lishi kerak.
Birlashtirilgan ma’lumotlar to‘plamining ikki qismi turli o‘lchamlarga ega bo‘lganligi sababli, tarmoqni o‘rgatishda kirish to‘plamlarini muvozanatlash kerak edi. Har bir o‘quv partiyasi ikkala ma’lumotlar bazasidagi bir xil miqdordagi ob’ektlardan iborat edi. Shunday qilib, "kichik" CASIA ma’lumotlar to‘plamidagi har bir OF bloki TUM bloklariga qaraganda tez-tez tanlab olingan. Algoritmni baholash har bir ma’lumotlar to‘plami uchun individual ravishda amalga oshirildi va natijalar 2.6-jadvalda ko‘rsatilgan. Birgalikda o‘qitish tartibi va sinf muvozanatiga qaramay, bunday birlashtirilgan modelning sifati har bir ma’lumot to‘plami uchun alohida algoritmlar sifatiga qaraganda pastroq bo‘lib chiqadi. Bu oxirgi modellarning haddan tashqari o‘rnatilishini aks ettiradi, uni tashlab ketish va tartibga solish bilan to‘sqinlik qilmaydi.
3.6-jadval
Birgalikda o‘rganilgan modelning sifati
Dostları ilə paylaş: |