ﺑﻪ ﻧﺎم ﺧﺪا ﻧﯿﻤﺴﺎل اول ٩۴-٩۵ ﯾﺎدﮔﯿﺮی ﻣﺎﺷﯿﻦ )۴٠-٧١٧ﮔﺮوه دوم( ﻣﺪرس :دﮐﺘﺮ ﺳﻠﯿﻤﺎﻧ ﺗﻤﺮﯾﻦ ﺳﺮی ﭼﻬﺎرم -ﻣﺎﺷﯿﻦ ﺑﺮدار ﭘﺸﺘﯿﺒﺎن ،ﺗﺎﺑﻊ ﻫﺴﺘﻪ ،ﻧﻈﺮﯾﻪی ﯾﺎدﮔﯿﺮی ،درﺧﺖ ﺗﺼﻤﯿﻢ ﻧﻤﺮه١٢٠+١٠ : ﻣﻮﻋﺪ ﺗﺤﻮﯾﻞ :ﭘﻨﺞ ﺷﻨﺒﻪ ۵آذر ٩۴ ﺳﻮال ١۵+١٠)١ﻧﻤﺮه( :ﻣﺎﺷﯿﻦ ﺑﺮدار ﭘﺸﺘﯿﺒﺎن ) ﻣﺎﺷﯿﻦ ﺑﺮدار ﭘﺸﺘﯿﺒﺎن ١ﺣﺎﺷﯿﻪ ﻧﺮم ٢ﺑﺎ ﺗﺎﺑﻊ ﻫﺰﯾﻨﻪی زﯾﺮ را در ﻧﻈﺮ ﺑ ﯿﺮﯾﺪy(x) = w Φ(x) + b : T N ∑ 1 ξn + ||w||2 2 n=1 )(١ C ) )1 − ξn ≤ t(n) y(x(n 0 ≤ ξn ( argmin w,ξ s.t ﮐﻪ nﺑﺮﭼﺴﺐ ﻣﻄﻠﻮب داده -nام را ﻧﺸﺎن ﻣ دﻫﺪ. ) ۵) .١.١ﻧﻤﺮه( ﺑﺮای ﻣﺤﺪودﯾﺖ ) ) 1 − ξn ≤ t y(x(nﺿﺮﯾﺐ ﻻﮔﺮاﻧﮋ anو ﺑﺮای ﻣﺤﺪودﯾﺖ 0 ≤ ξnﺿﺮﯾﺐ ﻻﮔﺮاﻧﮋ µnدر ﻧﻈﺮ ﺑ ﯿﺮﯾﺪ .ﺳﭙﺲ ﻧﺸﺎن دﻫﯿﺪ ﻣﺴﺎﻟﻪی دوﮔﺎن ﺑﻪ ﺻﻮرت زﯾﺮ ﺧﻮاﻫﺪ ﺑﻮد. N ∑ N N ∑ ∑ 1 argmin an − ) )an am t(n) t(m) k(x(n) , x(m 2 a n=1 n=1 m=1 )(n ( )(٢ 0 ≤ an ≤ C an t(n) = 0 s.t N ∑ n=1 ﮐﻪ دارﯾﻢ ) ).k(x(i) , x(j) ) = Φ(x(i) )T Φ(x(j ۴) .٢.١ﻧﻤﺮه( ﻓﺮض ﮐﻨﯿﺪ ﻣﻘﺎدﯾﺮ } {a1 , ..., aNاز ﺑﻬﯿﻨﻪﺳﺎزی ﺑﻪ دﺳﺖ آﻣﺪه اﺳﺖ .ﻣ ﺧﻮاﻫﯿﻢ ﻣﻘﺪار bرا از روی اﯾﻦ ﻣﻘﺎدﯾﺮ ﺑﻪ دﺳﺖ آورﯾﻢ. اﺑﺘﺪا ﻧﺸﺎن دﻫﯿﺪ اﮔﺮ 0 < an < Cدارﯾﻢ: t(n) (wT Φ(x(n) ) + b) = 1 )(٣ 1 ) .b = t(nاﻣﺎ ﺑﻪ دﻻﯾﻞ ﻣﺤﺎﺳﺒﺎﺗ ﻫﻨ ﺎم ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ راﺑﻄﻪی ﺑﺎﻻ ،ﻣ ﺗﻮان nای را اﻧﺘﺨﺎب ﮐﺮد ﮐﻪ .0 < an < Cﺳﭙﺲ ) )− wT Φ(x(n T )(n )(n ﭘﯿﺎدهﺳﺎزی ،از ﯾ ﻧﻤﻮﻧﻪ اﺳﺘﻔﺎده ﻧﻤ ﺷﻮد .ﻃﺮﻓﯿﻦ راﺑﻄﻪی ٣را در ) t(nﺿﺮب ﮐﺮده و ﻧﺘﯿﺠﻪ ﺑ ﯿﺮﯾﺪ .w Φ(x ) + b = tﺳﭙﺲ راﺑﻄﻪی اﺧﯿﺮ را ﺑﺮای ﺗﻤﺎم nﻫﺎﯾ ﮐﻪ 0 < an < Cﺑﻪ ﮐﺎر ﺑﺮده و bرا ﺑﺮﺣﺴﺐ wو } {a1 , ..., aNﺑﻪ دﺳﺖ آورﯾﺪ .ﺳﭙﺲ wرا ﻧﯿﺰ ﺑﺮﺣﺴﺐ } {a1 , ..., aNﺑﻪ دﺳﺖ آورﯾﺪ ﺗﺎ bﻓﻘﻂ ﺑﺮﺣﺴﺐ } {a1 , ..., aNﺑﻪ دﺳﺖ آﯾﺪ. ۶) .٣.١ﻧﻤﺮه( ﺗﺎﺑﻊ ﻫﺰﯾﻨﻪی ﺑﺮدار ﭘﺸﺘﯿﺒﺎن در ﺣﺎﻟﺖ ﻋﺎدی ﺑﻪ ﺻﻮرت + 12 ||w||2 ∑N n=1 ξn argmin Cاﺳﺖ .ﯾﻌﻨ ﺑﻪ ازای ﻧﻘﺎﻃ ﮐﻪ w,ξ از ﺣﺎﺷﯿﻪی دﺳﺘﻪی ﺧﻮدﺷﺎن ﻋﺒﻮر ﻣ ﮐﻨﻨﺪ ،ﺑﻪ اﻧﺪازهی ﻓﺎﺻﻠﻪ از ﺣﺎﺷﯿﻪ) (ξnﺟﺮﯾﻤﻪ درﻧﻈﺮ ﻣ ﮔﯿﺮد .اﯾﻦ ﻣﻮﺿﻮع را در ﻧﻤﻮدار آﺑ از ﺷ ﻞ ١ﻣﺸﺎﻫﺪه ﻣ ﮐﻨﯿﻢ .اﮔﺮ ﺗﺎﺑﻊ ﻫﺰﯾﻨﻪی رﮔﺮﺳﯿﻮن ﻟﺠﺴﺘﯿ ٣را در ﻋﺪدی ﺛﺎﺑﺖ ﺿﺮب ﮐﻨﯿﻢ ﺗﺎ از ﻧﻘﻄﻪی ] [0, 1ﺑ ﺬارد ،ﻣﻄﺎﺑﻖ ﻧﻤﻮدار ﻗﺮﻣﺰ از ﺷ ﻞ ١ﻣ ﺷﻮد. اﻟﻒ ١).ﻧﻤﺮه( ﺟﺮﯾﻤﻪای ﮐﻪ ﻣﺎﺷﯿﻦ ﺑﺮدار ﭘﺸﺘﯿﺒﺎن در ﻧﻈﺮ ﻣ ﮔﯿﺮد ،ﭼﻪ ﻣﺰﯾﺘ ﻧﺴﺒﺖ ﺑﻪ ﺟﺮﯾﻤﻪی رﮔﺮﺳﯿﻮن ﻟﺠﺴﺘﯿ دارد؟ ب ٢) .ﻧﻤﺮه(ﻓﺮض ﮐﻨﯿﺪ ﺗﺎﺑﻊ ﻫﺰﯾﻨﻪی ﻣﺎﺷﯿﻦ ﺑﺮدار ﭘﺸﺘﯿﺒﺎن را ﺑﻪ اﯾﻦ ﺻﻮرت ﺗﻐﯿﯿﺮ دﻫﯿﻢ)ﺑﺮای ξnﻫﺎ ﺗﻮان ٢ﺑ ﺬارﯾﻢ(و ﺗﺎﺑﻊ ﻫﺰﯾﻨﻪی ﺣﺎﺻﻞ را squared hinge lossﺑﻨﺎﻣﯿﻢ. N ∑ 1 argmin C ξn 2 + ||w||2 )(۴ 2 w,ξ n=1 ﺗﺎﺑﻊ ﺟﺮﯾﻤﻪی اﯾﻦ روش ﭼ ﻮﻧﻪ اﺳﺖ؟)ﻧﻤﻮداری ﺷﺒﯿﻪ ﻧﻤﻮدارﻫﺎی ﻗﺮﻣﺰ و آﺑ از ﺷ ﻞ ١رﺳﻢ ﮐﻨﯿﺪ(. ج ٣).ﻧﻤﺮه( ﻓﺮض ﮐﻨﯿﺪ دادهﻫﺎ ﺑﻪ ﺻﻮرت ﺷ ﻞ ٢ﺑﺎﺷﻨﺪ .در اﯾﻦ ﺣﺎﻟﺖ اﺳﺘﻔﺎده از squared hinge lossﺑﻬﺘﺮ اﺳﺖ ﯾﺎ ﻣﺎﺷﯿﻦ ﺑﺮدار ﭘﺸﺘﯿﺒﺎن ﻋﺎدی؟ ﭼﺮا؟ ) .۴.١اﺧﺘﻴﺎری ١٠ -ﻧﻤﺮه( در ﺑﻬﯿﻨﻪﺳﺎزی راﺑﻄﻪی ١ﻣ ﺗﻮان ﺑﻪ ﻋﺒﺎرت 12 ||w||2ﺑﻪ ﻋﻨﻮان ﻋﺒﺎرت ﻣﻨﻈﻢ ﺳﺎزی ۴ﻧ ﺎه ﮐﺮد ﮐﻪ ﭘﯿﭽﯿﺪﮔ ﻣﺪل ١ Support vector machine margin ٣ logistic regression ۴ rigularization term ٢ Soft ١ ﺷ ﻞ :١ﺷ ﻞ ٧.۵از ﮐﺘﺎب Bishop ﺷ ﻞ :٢ را ﮐﻨﺘﺮل ﻣ ﮐﻨﺪ .ﻫﻤﭽﻨﯿﻦ ﻋﺒﺎرت ∑N n=1 ξn ﺑﺎﻋﺚ ﻣ ﺷﻮد ﺧﻄﺎی آﻣﻮزش ﮐﻢ ﺷﻮد. اﻟﻒ ۴).ﻧﻤﺮه( ﻓﺮض ﮐﻨﯿﺪ ﻣ ﺧﻮاﻫﯿﻢ ﮐﺎری ﮐﻨﯿﻢ ﮐﻪ ﻣﺪل ﺗﺮﺟﯿﺢ دﻫﺪ ﺗﺎ ﺣﺪ اﻣ ﺎن از ﺗﻌﺪاد ﮐﻤﺘﺮی از اﯾﻦ اﺑﻌﺎد اﺳﺘﻔﺎده ﮐﻨﺪ)ﺗﺮﺟﯿﺢ دﻫﺪ ﺑﯿﺸﺘﺮ ﺧﺎﻧﻪﻫﺎی آراﯾﻪی wﺻﻔﺮ ﺑﺎﺷﻨﺪ( .ﻧﺸﺎن دﻫﯿﺪ ﺑﺮای اﯾﻦ ﮐﺎر ،ﺗﺎﺑﻊ ﻫﺰﯾﻨﻪی زﯾﺮ ﻣﻨﺎﺳﺐﺗﺮ از ﺗﺎﺑﻊ ﻫﺰﯾﻨﻪی راﺑﻄﻪی ١اﺳﺖ. ∑1 | |wd 2 D )(۵ ) d=1 )(n )(n y(x ξn + N ∑ C argmin w,ξ n=1 1 − ξn ≤ t 0 ≤ ξn s.t ﮐﻪ | |wdﻗﺪرﻣﻄﻠﻖ ﺑﻌﺪِ dام wاﺳﺖ. ب ۶).ﻧﻤﺮه( روﺷ ﺑﺮای ﺣﻞ ﺑﻬﯿﻨﻪﺳﺎزی راﺑﻄﻪی ۵ﭘﯿﺸﻨﻬﺎد ﮐﻨﯿﺪ. ﺳﻮال ٢٠)٢ﻧﻤﺮه( :ﺗﺎﺑﻊ ﻫﺴﺘﻪ ٨) .١.٢ﻧﻤﺮه( ﻓﺮض ﮐﻨﯿﺪ ﺗﺎﺑﻊ ) k(x, x′ﯾ ﻫﺴﺘﻪی ۵ﻣﻌﺘﺒﺮ اﺳﺖ. اﻟﻒ .ﻧﺸﺎن دﻫﯿﺪ ﺑﻪ ازای ﻫﺮ ﺗﺎﺑﻊ ) ،f (.ﺗﺎﺑﻊ ) f (x)k(x, x′ )f (x′ﯾ ( ) ب .ﻧﺸﺎن دﻫﯿﺪ ) exp k(x, x′ﯾ ﻫﺴﺘﻪی ﻣﻌﺘﺒﺮ اﺳﺖ. ﻫﺴﺘﻪی ﻣﻌﺘﺒﺮ اﺳﺖ. ( ) ج .از ﻗﺴﻤﺖﻫﺎی اﻟﻒ و ب اﺳﺘﻔﺎده ﮐﺮده و ﻧﺸﺎن دﻫﯿﺪ ﺗﺎﺑﻊ radial basisﺑﻪ ﺻﻮرت ، exp − 21 ||x − x′ ||2ﯾ اﺳﺖ. ) ( 1 ′ 2 ′ د .ﺗﺎﺑﻊ ﻧ ﺎﺷﺖ ﻣﺮﺑﻮط ﺑﻪ ﻫﺴﺘﻪی || exp − 2 ||x − xرا ) Φ(xﻣ ﻧﺎﻣﯿﻢ .ﻧﺸﺎن دﻫﯿﺪ ﺑﻪ ازای ﻫﺮ xو xدارﯾﻢ: .||Φ(x) − Φ(x′ )||2 ≤ 2 ﻫﺴﺘﻪی ﻣﻌﺘﺒﺮ ٨) .٢.٢ﻧﻤﺮه( اﻟﻒ .ﻓﺮض ﮐﻨﯿﺪ ) k1 (x, x′و ) k2 (x, x′ﻫﺴﺘﻪﻫﺎﯾ ﻣﻌﺘﺒﺮ ﻫﺴﺘﻨﺪ .ﻧﺸﺎن دﻫﯿﺪ ) k1 (x, x′ )k2 (x, x′ﯾ ﻫﺴﺘﻪی ﻣﻌﺘﺒﺮ اﺳﺖ. ۵ kernel ٢ ب .ﻣﺠﻤﻮﻋﻪ } p = {1, 2, ..., nرا در ﻧﻈﺮ ﺑ ﯿﺮﯾﺪ .ﺑﺮای ﻫﺮ دو زﯾﺮﻣﺠﻤﻮﻋﻪ از pﻣﺜﻞ Aو Bﺗﻌﺮﯾﻒ ﻣ ﮐﻨﯿﻢ: |k1 (A, B) = |A ∩ B )(۶ ﻧﺸﺎن دﻫﯿﺪ k1ﯾ ﻫﺴﺘﻪی ﻣﻌﺘﺒﺮ اﺳﺖ و Φرا ﺑﺮای اﯾﻦ ﻫﺴﺘﻪ ﺑﯿﺎﺑﯿﺪ. ج .ﻣﺠﻤﻮﻋﻪ } p = {1, 2, ..., nرا در ﻧﻈﺮ ﺑ ﯿﺮﯾﺪ .ﺑﺮای ﻫﺮ دو زﯾﺮﻣﺠﻤﻮﻋﻪ از pﻣﺜﻞ Aو Bﺗﻌﺮﯾﻒ ﻣ ﮐﻨﯿﻢ: 1 = )k2 (A, B )(٧ ||A ∪ B ﻧﺸﺎن دﻫﯿﺪ k2ﯾ اﺳﺖ. ﻫﺴﺘﻪی ﻣﻌﺘﺒﺮ اﺳﺖ و Φرا ﺑﺮای اﯾﻦ ﻫﺴﺘﻪ ﺑﯿﺎﺑﯿﺪ .ﺳﭙﺲ ﻧﺘﯿﺠﻪ ﺑ ﯿﺮﯾﺪ ||A∩B ||A∪B = ) k(A, Bﻧﯿﺰ ﯾ ﻫﺴﺘﻪی ﻣﻌﺘﺒﺮ ۴) .٣.٢ﻧﻤﺮه( ﯾ ﻣﺴﺎﻟﻪی دﺳﺘﻪﺑﻨﺪی ﺑﻪ دو دﺳﺘﻪ را در ﻧﻈﺮ ﺑ ﯿﺮﯾﺪ .ﻓﺮض ﮐﻨﯿﺪ دادهﻫﺎی آﻣﻮزش ﺗﻨﻬﺎ ﯾ وﯾﮋﮔ دارﻧﺪ و ﻧﻤﻮﻧﻪﻫﺎی آﻣﻮزش را ﻣ ﺗﻮان در kﺑﺎزه روی ﻣﺤﻮر ﺣﻘﯿﻘ ﺗﺼﻮر ﮐﺮد ﮐﻪ ﺑﺮﭼﺴﺐ ﻧﻤﻮﻧﻪﻫﺎی ﻫﺮ دو ﺑﺎزهی ﻣﺘﻮاﻟ ﻧﺎﺑﺮاﺑﺮ اﺳﺖ)ﺷ ﻞ ٣ﻣﺜﺎﻟ ﺑﺮای k = 6اﺳﺖ(. اﮔﺮ ﺑﺨﻮاﻫﯿﻢ از kernel SV Mﺑﺎ ﺣﺎﺷﯿﻪ ﺳﺨﺖ و ﺑﺎ ﻫﺴﺘﻪی ﭼﻨﺪ ﺟﻤﻠﻪای ﺑﺮای اﯾﻦ دادهﻫﺎ اﺳﺘﻔﺎده ﻧﻤﺎﺋﯿﻢ ،ﺣﺪاﻗﻞ ﭼﻪ درﺟﻪای را ﺑﺮای اﯾﻦ ﻫﺴﺘﻪ ﻣﻨﺎﺳﺐ ﻣ داﻧﯿﺪ؟ ﭼﺮا؟ ﺷ ﻞ :٣ ﺳﻮال ٢۵)٣ﻧﻤﺮه( :ﻧﻈﺮﯾﻪی ﯾﺎدﮔﯿﺮی ۶) .١.٣ﻧﻤﺮه( ﯾ ﻣﺴﺎﻟﻪی دﺳﺘﻪﺑﻨﺪی دارﯾﻢ .از ﻫﺮﻧﻤﻮﻧﻪ Dوﯾﮋﮔ ِ ﺑﺎﯾﻨﺮی دارﯾﻢ)ﻧﻤﻮﻧﻪی nام ﺑﻪ ﺻﻮرت ] x(n) = [x1 , ..., xDاﺳﺖ )(n )(n )(n .(xd ﻫﻤﭽﻨﯿﻦ ﻫﺮ ﻧﻤﻮﻧﻪی ﺑﻪ ﯾ از دو دﺳﺘﻪی +ﯾﺎ −ﺗﻌﻠﻖ دارد .ﻓﻀﺎی ﻓﺮﺿﯿﻪی HKرا ﺗﻤﺎم ﺗﻮاﺑﻊ ﺑﺎﯾﻨﺮی ﻣ ﮔﯿﺮﯾﻢ ﮐﻪ ﮐﻪ }∈ {0, 1 ﺑﻪ ﺻﻮرت k − term DN Fﻗﺎﺑﻞ ﻧﻮﺷﺘﻦ ﻫﺴﺘﻨﺪ .ﻓﺮﻣﺖ ،k − term DN Fﺑﻪ ﺻﻮرت T1 ∨ T2 ∨ ... ∨ TKاﺳﺖ ﮐﻪ ﻫﺮﯾ از Tiﻫﺎ ﺣﺎﺻﻞ از andﺷﺪن ﺗﻌﺪادی ﻟﻴﺘﺮال ۶ﻫﺴﺘﻨﺪ .ﯾ ﻟﻴﺘﺮال ،ﯾ ﻣﺘﻐﯿﺮ ﺑﺎﯾﻨﺮی ﯾﺎ ﻧﻘﯿﺾ آن اﺳﺖ .ﺑﻪ ﻋﻨﻮان ﻣﺜﺎل ﻫﺮ ﯾ از x1و ¬x2ﻟﻴﺘﺮال ﻫﺴﺘﻨﺪ .رواﺑﻂ زﯾﺮ ﺑﻪ ﻓﺮم 2 − term DN Fﻧﻮﺷﺘﻪ ﺷﺪهاﻧﺪ. )(٨ ) f1 ([x1 , ..., xD ]) = (x1 ∧ x2 ∧ ¬x3 ) ∨ (x4 ∧ x5 )(٩ ) f2 ([x1 , ..., xD ]) = (¬x1 ) ∨ (x4 ∧ ¬x5 اﻟﻒ .ﻧﺸﺎن دﻫﯿﺪ .|HK | ≤ 3DK ب .ﻓﺮض ﮐﻨﯿﺪ learnerﺑﺪاﻧﺪ ﺗﺎﺑﻌ ﮐﻪ ﻣ ﺧﻮاﻫﺪ ﯾﺎد ﺑ ﯿﺮد ﺑﻪ ﻓﺮﻣﺖ k − term DN Fﻗﺎﺑﻞ ﻧﻮﺷﺘﻦ اﺳﺖ learner .از ﺑﯿﻦ ﻓﺮﺿﯿﻪﻫﺎی ﺑﺎ ﺧﻄﺎی آﻣﻮزش ﺻﻔﺮ ،ﯾ را ﺑﻪ ﻋﻨﻮان ﺧﺮوﺟ ﻣ دﻫﺪ .ﺧﺮوﺟ learnerرا ̂ hﻣ ﻧﺎﻣﯿﻢ .ﻣ ﺧﻮاﻫﯿﻢ ﺑﺎ اﺣﺘﻤﺎل ٩۵درﺻﺪ داﺷﺘﻪ ﺑﺎﺷﯿﻢ .errortrue (ĥ) ≤ 0.1ﺣﺪاﻗﻞ ﭼﻨﺪ ﻧﻤﻮﻧﻪ ﻣ ﺧﻮاﻫﯿﻢ؟ ج .ﻓﺮض ﮐﻨﯿﺪ learnerﻧﺪاﻧﺪ ﺗﺎﺑﻌ ﮐﻪ ﻣ ﺧﻮاﻫﺪ ﯾﺎد ﺑ ﯿﺮد ﺑﻪ ﺻﻮرت k − term DN Fﻗﺎﺑﻞ ﻧﻮﺷﺘﻦ اﺳﺖ ﯾﺎ ﻧﻪ .آﯾﺎ ﻣ ﺗﻮان ﮐﺎری ﮐﺮد ﮐﻪ ﺑﻪ اﺣﺘﻤﺎل ٩۵درﺻﺪ داﺷﺘﻪ ﺑﺎﺷﯿﻢ errortrue (ĥ) ≤ 0.1؟ اﮔﺮ ﺧﯿﺮ ﭼﺮا؟ آﯾﺎ ﮐﺮان ﺟﺎﯾ ﺰﯾﻨ در اﻳﻦ ﺣﺎﻟﺖ وﺟﻮد دارد؟ ١١) .٢.٣ﻧﻤﺮه( ﻓﺮض ﮐﻨﯿﺪ ﯾ ﻣﺴﺎﻟﻪی دﺳﺘﻪﺑﻨﺪی دارﯾﻢ ﮐﻪ روی ﻫﺮ ﻋﺪد ﺣﻘﯿﻘ ،ﯾ از ﺑﺮﭼﺴﺐﻫﺎی +ﯾﺎ −ﻗﺮار ﻣ ﮔﯿﺮد .ﺑﺮای ﻣﺪل ﮐﺮدن ﻣﺴﺎﻟﻪ ،ﭼﻨﺪ ﻓﻀﺎی ﻓﺮﺿﯿﻪ ﺑﻪ ﺻﻮرت } H = {H1 , ..., HKدر ﻧﻈﺮ ﻣ ﮔﯿﺮﯾﻢ Hj .ﻣﺠﻤﻮﻋﻪی ﺗﻤﺎم دﺳﺘﻪﺑﻨﺪﻫﺎی ﺑﻪ ﺻﻮرت ))sign(Pj (x اﺳﺖ ﮐﻪ ) Pj (xﭼﻨﺪﺟﻤﻠﻪای دﻟﺨﻮاه از درﺟﻪی jاﺳﺖ و ﺗﺎﺑﻊ signﺑﻪ ﺻﻮرت زﯾﺮ اﺳﺖ: { + 0≤x = )sign(x )(١٠ − x<0 ﺑﻪ ﻋﻨﻮان ﻣﺜﺎل در ﺷ ﻞ ۴ﻣﺸﺎﻫﺪه ﻣ ﮐﻨﯿﻢ دﺳﺘﻪﺑﻨﺪ ) y = sign(x2 − 2x − 5ﮐﻪ ﻋﻀﻮی از H2اﺳﺖ ،دادهﻫﺎی آﻣﻮزش را ﺑﻪ درﺳﺘ دﺳﺘﻪﺑﻨﺪی ﮐﺮده اﺳﺖ. اﻟﻒ .ﺑﺮای ﻓﻀﺎی ﻓﺮﺿﯿﻪی ،Hjﺑﻌﺪ ٧ VCرا ﺑﻪ دﺳﺖ آورﯾﺪ. ۶ literal dimension ٣ ٧ Vapnick-Chervonenkis ﺷ ﻞ :۴ ب .در اﯾﻦ ﺑﺨﺶ ﻣ ﺧﻮاﻫﯿﻢ ﺑﺎ اﺳﺘﻔﺎده از ٨ SRMﻳ دﺳﺘﻪﺑﻨﺪ ﭘﻴﺪا ﮐﻨﻴﻢ .ﻫﻤﭽﻨﻴﻦ ﻓﺮض ﮐﻨﻴﺪ ﺑﻬﺘﺮﯾﻦ دﺳﺘﻪﺑﻨﺪ ،دﺳﺘﻪﺑﻨﺪی ﻣﺎﻧﻨﺪ ∗ hاﺳﺖ ﮐﻪ } h∗ ∈ {H1 ∪ ... ∪ HKو ﺧﻄﺎی واﻗﻌ ٩آن ﮐﻤﯿﻨﻪ اﺳﺖ .دﺳﺘﻪﺑﻨﺪی ﮐﻪ SRMﯾﺎد ﻣ ﮔﯿﺮد را ̂ hﻣ ﻧﺎﻣﯿﻢ .ﻓﻀﺎی ﻓﺮﺿﯿﻪای ﮐﻪ ∗ hﺑﻪ آن ﺗﻌﻠﻖ دارد را ∗ Hjﻣ ﻧﺎﻣﯿﻢ .ﻓﺮض ﮐﻨﯿﺪ mدادهی آﻣﻮزش دارﯾﻢ ϵ(Hj∗ ) .را ﺑﻪ اﯾﻦ ﺻﻮرت ﺗﻌﺮﯾﻒ ﻣ ﮐﻨﯿﻢ: √ ( 2m ) V C(Hj∗ ) ln V C(H ) + 1 + ln( 4δ ) ∗j )(١١ = ) ∗ϵ(Hj m ﻧﺸﺎن دﻫﯿﺪ ﺑﻪ اﺣﺘﻤﺎل ) (1 − δدارﯾﻢ: ) ∗errortrue (ĥ) ≤ errortrue (h ) + 2ϵ(Hj )(١٢ ∗ ج .ﻓﺮض ﮐﻨﯿﺪ درﺟﻪی ﭼﻨﺪﺟﻤﻠﻪای را ﺑﻪ ۵ﻣﺤﺪود ﮐﻨﯿﻢ)} .(H = {H1 , H2 , H3 , H4 , H5ﻣ ﺧﻮاﻫﯿﻢ ﺑﻪ اﺣﺘﻤﺎل ٩۵درﺻﺪ: . errortrue (ĥ) ≤ errortrue (h∗ ) + 0.1ﺣﺪاﻗﻞ ﭼﻨﺪ ﻧﻤﻮﻧﻪی آﻣﻮزش ﻣ ﺧﻮاﻫﯿﻢ؟ ٨) .٣.٣ﻧﻤﺮه( اﻟﻒ .دﺳﺘﻪﺑﻨﺪی را در ﻧﻈﺮ ﺑ ﯿﺮﯾﺪ ﮐﻪ در ﻓﻀﺎی دو ﺑﻌﺪی ،ﯾ ﻣﺴﺘﻄﯿﻞ ﻣ ﺳﺎزد ﮐﻪ اﺿﻼع آن ﻣﻮازی ﻣﺤﻮرﻫﺎی ﻣﺨﺘﺼﺎت ﻫﺴﺘﻨﺪ. ﺳﭙﺲ ﻓﺮض ﻣ ﮐﻨﺪ ﻧﻘﺎط داﺧﻞ ﻣﺴﺘﻄﯿﻞ ﻣﺘﻌﻠﻖ ﺑﻪ دﺳﺘﻪی +و ﻧﻘﺎط ﺧﺎرج ﻣﺴﺘﻄﯿﻞ ﻣﺘﻌﻠﻖ ﺑﻪ دﺳﺘﻪی −ﻫﺴﺘﻨﺪ .ﺑﻌﺪ VCرا ﺑﺮای اﯾﻦ دﺳﺘﻪﺑﻨﺪ ﺑﻪ دﺳﺖ آورﯾﺪ. ب .دﺳﺘﻪﺑﻨﺪی را در ﻧﻈﺮ ﺑ ﯿﺮﯾﺪ ﮐﻪ در ﻓﻀﺎی دو ﺑﻌﺪی ،ﯾ ﻣﺜﻠﺚ در ﻧﻈﺮ ﻣ ﮔﯿﺮد .ﺳﭙﺲ ﻓﺮض ﻣ ﮐﻨﺪ ﻧﻘﺎط داﺧﻞ ﻣﺜﻠﺚ ﻣﺘﻌﻠﻖ ﺑﻪ دﺳﺘﻪی +و ﻧﻘﺎط ﺧﺎرج ﻣﺜﻠﺚ ﻣﺘﻌﻠﻖ ﺑﻪ دﺳﺘﻪی −ﻫﺴﺘﻨﺪ .ﻧﺸﺎن دﻫﯿﺪ ﺑﻌﺪ VCﺑﺮای اﯾﻦ دﺳﺘﻪﺑﻨﺪ ﺑﺮاﺑﺮ ٧اﺳﺖ).راﻫﻨﻤﺎﯾ :وﻗﺘ ﻫﺸﺖ ﻧﻘﻄﻪ دارﯾﻢ ،دو ﺣﺎﻟﺖ در ﻧﻈﺮ ﺑ ﯿﺮﯾﺪ .١ :ﯾ از ﻧﻘﺎط در ﭘﻮشﻣﺤﺪب ٧ ١٠ﻧﻘﻄﻪی دﯾ ﺮ ﻗﺮار دارد .٢ .ﻫﯿﭻ ﯾ از ﻧﻘﺎط در ﭘﻮشﻣﺤﺪب ٧ﻧﻘﻄﻪی دﯾ ﺮ ﻗﺮار ﻧﺪارد(. ﺳﻮال ٣٠)۴ﻧﻤﺮه( :درﺧﺖ ﺗﺼﻤﯿﻢ ﻧﻤﺎدﮔﺬاری :ﻓﺮض ﮐﻨﯿﺪ Nدادهی آﻣﻮزش ﺑﻪ ﺻﻮرت }) ) D = {(x(1) , y (1) ), ..., (x(N ) , y (Nدارﯾﻢ ﮐﻪ x(n) ∈ RDو }.y (n) ∈ {1, ..., C ﻣﺆﻟﻔﻪ dأم از ) x(nرا ﺑﺎ xdﻧﺸﺎن ﻣ دﻫﯿﻢ و آن را وﯾﮋﮔ d ١١أم از ﻧﻤﻮﻧﻪی nأم ﻣ ﻧﺎﻣﯿﻢ .در واﻗﻊ از ﻫﺮ ﻧﻤﻮﻧﻪ Dﺗﺎ وﯾﮋﮔ دارﯾﻢ ﮐﻪ ﻣ ﺗﻮاﻧﻨﺪ ﺣﻘﯿﻘ ﺑﺎﺷﻨﺪ .ﻫﺮ ﻧﻤﻮﻧﻪ ﺑﻪ ﯾ از Cﮐﻼس ﺗﻌﻠﻖ دارد. )(n ٢) .١.۴ﻧﻤﺮه( ﻧﺸﺎن دﻫﯿﺪ اﮔﺮ وﯾﮋﮔ ِ dام و yاز ﻫﻢ ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ آﻧ ﺎه .Gain(y, xd ) = 0ﯾﻌﻨ اﻟ ﻮرﯾﺘﻢ ID3وﯾﮋﮔ dام را ﺑﻪ ﻋﻨﻮان رﯾﺸﻪی درﺧﺖ ﺗﺼﻤﯿﻢ اﻧﺘﺨﺎب ﻧﻤ ﮐﻨﺪ) .ﻓﺮض ﮐﻨﯿﺪ در دادهﻫﺎ ﻧﻮﯾﺰ وﺟﻮد ﻧﺪارد و ﺑﻪ اﻧﺪازهی ﮐﺎﻓ ﻧﻤﻮﻧﻪ دارﯾﻢ(. ۴) .٢.۴ﻧﻤﺮه( ﻓﺮض ﮐﻨﯿﺪ Nﻧﻔﺮ دارﯾﻢ ﮐﻪ از ﻫﺮ ﮐﺪام Dوﯾﮋﮔ دارﯾﻢ .اﮔﺮ ﺑﯿﻤﺎری ﻓﺮد nام ﺧﻮﺷﺨﯿﻢ ﺑﻮد y (n) = 0و در ﻏﯿﺮ اﯾﻦ ﺻﻮرت .y (n) = 1ﻓﺮض ﮐﻨﯿﺪ x1ﺷﻤﺎرهی ﭘﺮوﻧﺪهی ﺑﯿﻤﺎر nام اﺳﺖ .ﻫﻤﭽﻨﯿﻦ ﻣ داﻧﯿﻢ ﺷﻤﺎرهی ﭘﺮوﻧﺪه ﻣﻨﺤﺼﺮ ﺑﻪ ﻓﺮد اﺳﺖ .اﮔﺮ ﺑﺮای ﺣﻞ اﯾﻦ ﻣﺴﺎﻟﻪ از اﻟ ﻮرﯾﺘﻢ ID3و ﻣﻌﯿﺎر ﺑﻬﺮه اﻃﻼﻋﺎﺗ ١٢اﺳﺘﻔﺎده ﮐﻨﯿﻢ ،آﯾﺎ ﻣﻤ ﻦ اﺳﺖ وﯾﮋﮔ ِ اول ﺑﻪ ﻋﻨﻮان رﯾﺸﻪی درﺧﺖ ﺗﺼﻤﯿﻢ ﻗﺮار ﮔﯿﺮد؟ اﮔﺮ اﯾﻦ اﺗﻔﺎق ﺑﯿﻔﺘﺪ ،آﯾﺎ ﺑﯿﺶ ﺑﺮازش ١٣رخ داده اﺳﺖ؟ اﮔﺮ ﭘﺎﺳﺦ ﻣﺜﺒﺖ اﺳﺖ ،راﻫ ﺎری ﺑﺮای ﺟﻠﻮﮔﯿﺮی از اﯾﻦ ﻧﻮع ﺑﯿﺶ ﺑﺮازش اراﺋﻪ دﻫﯿﺪ. )(n ۶) .٣.۴ﻧﻤﺮه( ﺗﻌﺮﯾﻒ)درﺧﺖ ﺗﺼﻤﯿﻢ ﺑﺪون ﺗ ﺮار( :ﻓﺮض ﮐﻨﯿﺪ ﯾ وﯾﮋﮔ ﺣﺪاﮐﺜﺮ ﯾ درﺧﺖ ﺗﺼﻤﯿﻢ دارﯾﻢ ﮐﻪ در ﻫﺮ ﻣﺴﯿﺮ ﻣﺴﺘﻘﯿﻢ از رﯾﺸﻪ ﺑﻪ ﯾ ﺑﺮگ ،ﻫﺮ ﺑﺎر ﺑﺮرﺳ ﻣ ﺷﻮد .ﭼﻨﯿﻦ درﺧﺘ را ﺑﺪون ﺗ ﺮار ﻣ ﮔﻮﺋﯿﻢ. ٨ Structural Risk Minimization error ١٠ convex hull ١١ Attribute ١٢ Information gain ١٣ Overfitting ٩ true ۴ اﻟﻒ ٢).ﻧﻤﺮه( ﻓﺮض ﮐﻨﯿﺪ وﯾﮋﮔ ﻫﺎ ﻣﻘﺎدﯾﺮ ﮔﺴﺴﺘﻪ و ﻣﺤﺪودی دارﻧﺪ) ﻣﺜﻼ } ∈ {0, 1, ..., αd .(xdﻧﺸﺎن دﻫﯿﺪ درﺧﺖ ﺗﺼﻤﯿﻢ ﺑﺪون )(n ﺗ ﺮاری وﺟﻮد دارد ﮐﻪ ﺧﻄﺎی آﻣﻮزش آن ﺻﻔﺮ اﺳﺖ) .ﻓﺮض ﮐﻨﯿﺪ ﺣﺎﻟﺖ ) x(i) = x(jو )̸= y (j )(i yدر دادهﻫﺎی آﻣﻮزش رخ ﻧﻤ دﻫﺪ(. ب ٢).ﻧﻤﺮه( ﻓﺮض ﮐﻨﯿﺪ وﯾﮋﮔ ﻫﺎ ﭘﯿﻮﺳﺘﻪ ﻫﺴﺘﻨﺪ .ﻫﻤﭽﻨﯿﻦ وﻗﺘ در ﯾ ﮔﺮهی درﺧﺖ ﯾ وﯾﮋﮔ ﭘﯿﻮﺳﺘﻪ را ﺑﺮرﺳ ﻣ ﮐﻨﯿﻢ ،روی آن آﺳﺘﺎﻧﻪ ﻣ ﮔﺬارﯾﻢ .اﮔﺮ وﯾﮋﮔ از آﺳﺘﺎﻧﻪ ﮐﻤﺘﺮ ﺑﻮد ﺑﻪ زﯾﺮدرﺧﺖ ﭼﭗ و اﮔﺮ ﺑﯿﺸﺘﺮ ﺑﻮد ﺑﻪ زﯾﺮدرﺧﺖ راﺳﺖ ﻣ روﯾﻢ .آﯾﺎ ﺑﻪ ازای ﻫﺮ دادهی آﻣﻮزش ﺑﺎ وﯾﮋﮔ ﻫﺎی ﭘﯿﻮﺳﺘﻪ ،درﺧﺖ ﺗﺼﻤﯿﻤ وﺟﻮد دارد ﮐﻪ .١ﺑﻪ ﺷ ﻞ ﻓﻮق وﯾﮋﮔ ﻫﺎی ﭘﯿﻮﺳﺘﻪ را ﺑﺮرﺳ ﮐﻨﺪ و .٢ﺑﺪون ﺗ ﺮار ﺑﺎﺷﺪ .٣ﺧﻄﺎی آﻣﻮزش آن ﺻﻔﺮ ﺑﺎﺷﺪ؟ ج ٢).ﻧﻤﺮه( اﻟ ﻮرﯾﺘﻢ ID3در ﻫﺮ ﻣﺮﺣﻠﻪ ﯾ وﯾﮋﮔ را ﺑﻪ ﻋﻨﻮان رﯾﺸﻪ اﻧﺘﺨﺎب ﻣ ﮐﻨﺪ و در آن زﯾﺮدرﺧﺖ ،دﯾ ﺮ از آن وﯾﮋﮔ اﺳﺘﻔﺎده ﻧﻤ ﮐﻨﺪ .ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻗﺴﻤﺖ ب ﭼﺮا در ﺣﺎﻟﺖ ﭘﯿﻮﺳﺘﻪ)ﺑﺮﺧﻼف ﺣﺎﻟﺖ ﮔﺴﺴﺘﻪ( ﻧﺒﺎﯾﺪ وﯾﮋﮔ رﯾﺸﻪ را ﮐﻨﺎر ﮔﺬاﺷﺖ؟ ١٨) .۴.۴ﻧﻤﺮه( در درﺧﺖ ﺗﺼﻤﯿﻢ ﭼﻨﺪ ﻣﺘﻐﯿﺮه ،١۴در ﻫﺮ ﮔﺮه ﺗﺎﺑﻌ از وﯾﮋﮔ ﻫﺎ ﺑﺮرﺳ ﻣ ﺷﻮد .ﻣﺜﻼ ﻣﻤ ﻦ اﺳﺖ در ﯾ ﮔﺮه اﮔﺮ 0 ≤ x1 + 3x2 + 1ﺑﻪ زﯾﺮدرﺧﺖ ﺳﻤﺖ راﺳﺖ و اﮔﺮ x1 + 3x2 + 1 < 0ﺑﻪ زﯾﺮدرﺧﺖ ﺳﻤﺖ ﭼﭗ ﺑﺮوﯾﻢ .در اﯾﻨﺠﺎ ﻓﺮض ﻣ ﮐﻨﯿﻢ در ﻫﺮ ﮔﺮه ﺗﺎﺑﻌ ﺧﻄ از وﯾﮋﮔ ﻫﺎ) (wT x + bﺑﺮرﺳ ﻣ ﺷﻮد. اﻟﻒ ٢).ﻧﻤﺮه( ﻓﺮض ﮐﻨﯿﺪ دادهﻫﺎی آﻣﻮزش در ﻓﻀﺎی دو ﺑﻌﺪی ﺑﻪ ﺻﻮرت ﺷ ﻞ ۵ﻫﺴﺘﻨﺪ .ﻧﺸﺎن دﻫﯿﺪ درﺧﺖ ﺗﺼﻤﯿﻢ ﭼﻨﺪ ﻣﺘﻐﯿﺮهای وﺟﻮد دارد ﮐﻪ ﻓﻘﻂ ﯾ ﮔﺮهی ﺗﺼﻤﯿﻢ ﮔﯿﺮی دارد و ﺧﻄﺎی آﻣﻮزش آن ﺻﻔﺮ اﺳﺖ. ﺷ ﻞ :۵ ب ٣).ﻧﻤﺮه( ﻓﺮض ﮐﻨﯿﺪ ﻧﻤﻮﻧﻪﻫﺎی آﻣﻮزش در ﻓﻀﺎی دو ﺑﻌﺪی ﺑﻪ ﺻﻮرت ﺷ ﻞ ۵ﻫﺴﺘﻨﺪ .درﺧﺖ ﺗﺼﻤﯿﻢ ﺗ ﺧﻄﺎی آﻣﻮزش آن ﺻﻔﺮ ﺑﺎﺷﺪ. ﻣﺘﻐﯿﺮهای ﺑﺴﺎزﯾﺪ ﮐﻪ ج ٣).ﻧﻤﺮه( ﻓﺮض ﮐﻨﯿﺪ دادهﻫﺎ ﻣﻄﺎﺑﻖ ﺷ ﻞ ۶ﺑﺎﺷﻨﺪ .ﻧﺸﺎن دﻫﯿﺪ درﺧﺖ ﺗﺼﻤﯿﻤ ﭼﻨﺪ ﻣﺘﻐﯿﺮه ،ﮐﺎﻣﻞ و ﺑﻪ ارﺗﻔﺎع )٢ﻣﻄﺎﺑﻖ ﺷ ﻞ (٧ وﺟﻮد دارد ﮐﻪ ﺧﻄﺎی آﻣﻮزش آن ﺻﻔﺮ اﺳﺖ. ﺷ ﻞ :۶ د ۴).ﻧﻤﺮه(ﻓﺮض ﮐﻨﯿﺪ ﻣ داﻧﯿﻢ دادهﻫﺎ ﺑﺎ درﺧﺖ ﺗﺼﻤﯿﻤ ﭼﻨﺪ ﻣﺘﻐﯿﺮه ،ﮐﺎﻣﻞ و ﺑﻪ ارﺗﻔﺎع )٢ﻣﻄﺎﺑﻖ ﺷ ﻞ (٧ﺑﻪ درﺳﺘ دﺳﺘﻪﺑﻨﺪی ﻣ ﺷﻮﻧﺪ. ﻣ ﺧﻮاﻫﯿﻢ ﭘﺎراﻣﺘﺮﻫﺎی } {w0 , b0 , w1 , b1 , w2 , b2را ﯾﺎد ﺑ ﯿﺮﯾﻢ .ﻓﺮض ﮐﻨﯿﺪ وﻗﺘ در ﻫﺮﯾ از ﮔﺮهﻫﺎی B ،Aو Cﻣ ﺧﻮاﻫﯿﻢ دادهﻫﺎ را ﺑﻪ دو دﺳﺘﻪ ﺗﻘﺴﯿﻢ ﮐﻨﯿﻢ ،از ﻣﺎﺷﯿﻦ ﺑﺮدار ﭘﺸﺘﯿﺒﺎن ﺑﺎ ﺣﺎﺷﯿﻪی ﻧﺮم اﺳﺘﻔﺎده ﮐﻨﯿﻢ .اﮔﺮ دادهﻫﺎ ﺑﻪ ﺻﻮرت ﺷ ﻞ ۶ﺑﺎﺷﻨﺪ ،آﯾﺎ ﺑﻪ درﺧﺘ ﮐﻪ در ﺑﺨﺶ د ﺳﺎﺧﺘﯿﻢ ﻣ رﺳﯿﻢ؟ ه ۶).ﻧﻤﺮه( ﻓﺮض ﮐﻨﯿﺪ ﻣ داﻧﯿﻢ دادهﻫﺎ ﺑﺎ درﺧﺖ ﺗﺼﻤﯿﻤ ﭼﻨﺪ ﻣﺘﻐﯿﺮه ،ﮐﺎﻣﻞ و ﺑﻪ ارﺗﻔﺎع )٢ﻣﻄﺎﺑﻖ ﺷ ﻞ (٧ﺑﻪ درﺳﺘ دﺳﺘﻪﺑﻨﺪی ﻣ ﺷﻮﻧﺪ. ﺑﺮای ﯾﺎدﮔﯿﺮی ﭘﺎراﻣﺘﺮﻫﺎی } {w0 , b0 , w1 , b1 , w2 , b2ﺗﺎﺑﻊ ﻫﺰﯾﻨﻪی راﺑﻄﻪی ١٣را در ﻧﻈﺮ ﺑ ﯿﺮﯾﺪ .در اﯾﻦ راﺑﻄﻪ D1 ،ﻣﺠﻤﻮﻋﻪی ﻧﻘﺎﻃ decision tree ۵ ١۴ Multivariate ﺷ ﻞ :٧ اﺳﺖ ﮐﻪ 0 ≤ w0T x + b0و D2ﻣﺠﻤﻮﻋﻪی ﻧﻘﺎﻃ اﺳﺖ ﮐﻪ .w0T x + b0 < 0ﻫﻤﭽﻨﯿﻦ اﮔﺮ ،x(n) ∈ D1آﻧ ﺎه qn = 1و اﮔﺮ ،x(n) ∈ D2آﻧ ﺎه .qn = −1 )(١٣ N ∑[ ∑ ] ∑ ] [λ )||w0 ||2 + ||w1 ||2 + ||w2 ||2 + (1 − λ ηn + vj + τk 2 n=1 j∈D 1 k∈D 2 [ ] s.t 1 − ηn ≤ qn w0T x(n) + b0 0 ≤ ηn n = 1, ..., N [ ] 1 − vj ≤ t(j) w1T x(j) + b1 0 ≤ vj x(j) ∈ D1 [ ] 1 − τk ≤ t(k) w2T x(k) + b2 0 ≤ τk x(k) ∈ D2 argmin w,η,v,τ اﯾﺪهی ﺑﻪ ﮐﺎرﮔﯿﺮی ﺗﺎﺑﻊ ﻫﺰﯾﻨﻪی ﺑﺎﻻ ﭼﯿﺴﺖ؟ اﮔﺮ ﺑﺮای ﻧﻤﻮﻧﻪﻫﺎی ﺷ ﻞ ۶از اﯾﻦ ﺗﺎﺑﻊ ﻫﺰﯾﻨﻪ اﺳﺘﻔﺎده ﮐﻨﯿﻢ ،ﻧﻮاﺣ ﺗﺼﻤﯿﻢﮔﯿﺮی ﭼ ﻮﻧﻪ ﺧﻮاﻫﺪ ﺷﺪ؟ ﺳﻮال ٣٠)۵ﻧﻤﺮه(:ﭘﯿﺎدهﺳﺎزی ﻣﺎﺷﯿﻦ ﺑﺮدار ﭘﺸﺘﯿﺒﺎن ﻣﺠﻤﻮﻋﻪ دادهی ١۵ MNISTرا ﮐﻪ در اﺧﺘﯿﺎر ﺷﻤﺎ ﻗﺮار ﮔﺮﻓﺘﻪ ،در ﻧﻈﺮ ﺑ ﯿﺮﯾﺪ .اﯾﻦ ﻣﺠﻤﻮﻋﻪ داده ﺷﺎﻣﻞ ١٠٠٠٠ﺗﺼﻮﯾﺮ از ارﻗﺎم دﺳﺖﻧﻮﯾﺲ)١٠٠٠ ﺗﺼﻮﯾﺮ از ﻫﺮ رﻗﻢ( اﺳﺖ .ﺗﺼﺎوﯾﺮ ﺳﯿﺎهﺳﻔﯿﺪ و ﺑﺎ اﻧﺪازه 28 × 28ﻫﺴﺘﻨﺪ .در ﻓﺎﯾﻞﻫﺎﯾ ﮐﻪ در اﺧﺘﯿﺎر ﺷﻤﺎ ﻗﺮار ﮔﺮﻓﺘﻪ ،ﻫﺮ ﺗﺼﻮﯾﺮ ﺑﺎ ﯾ ﺑﺮدار ﺑﻪ ﻃﻮل 784از اﻋﺪاد ﻋﺸﺎری در ﺑﺎزهی ] [0, 1ﻧﺸﺎن داده ﺷﺪه اﺳﺖ .ﻫﻤﭽﻨﯿﻦ ﺑﻪ ﻣﻨﻈﻮر آﺷﻨﺎﯾ ﺑﺎ ، ١۶ QPاﺳﺘﻔﺎده از ﺗﻮاﺑﻌ ﻣﺎﻧﻨﺪ svmtrainو svmclassify در matlabﺑﺮای اﯾﻦ ﺗﻤﺮﯾﻦ ﻣﺠﺎز ﻧﯿﺴﺖ. ٧) .١.۵ﻧﻤﺮه( ﻣﺎﺷﯿﻦ ﺑﺮدار ﭘﺸﺘﯿﺒﺎن ﺑﺎ ﺣﺎﺷﯿﻪی ﻧﺮم را ﺑﺮای ﺣﺎﻟﺖِ دو ﮐﻼﺳﻪ ﭘﯿﺎدهﺳﺎزی ﻧﻤﺎﯾﯿﺪ .در ﻗﺴﻤﺖﻫﺎی ﺑﻌﺪ ﻗﺼﺪ دارﯾﻢ ﻧﻮع و ﭘﺎراﻣﺘﺮِ ﻫﺴﺘﻪ و ﻫﻤﭽﻨﯿﻦ ﭘﺎراﻣﺘﺮ Cدر ﺗﺎﺑﻊ ﻫﺰﯾﻨﻪ را ﺗﻨﻈﯿﻢ ﮐﻨﯿﻢ .ﺑﻪ ﻫﻤﯿﻦ دﻟﯿﻞ ﺑﻬﺘﺮ اﺳﺖ ﭘﯿﺎدهﺳﺎزی ﺷﻤﺎ ﺑﻪ ﻧﺤﻮی ﺑﺎﺷﺪ ﮐﻪ ﺗﻐﯿﯿﺮ اﯾﻦ ﻣﻮارد ،ﺑﺎ ﮐﻤﺘﺮﯾﻦ ﺗﻐﯿﯿﺮ در ﮐﺪ ﻣﻤ ﻦ ﺑﺎﺷﺪ. ۶) .٢.۵ﻧﻤﺮه( در اﯾﻦ ﺑﺨﺶ ﻗﺼﺪ دارﯾﻢ دﺳﺘﻪﺑﻨﺪی ﺑﺮای ﺗﺸﺨﯿﺺ ﺗﺼﺎوﯾﺮ رﻗﻢ 9از ﺗﺼﺎوﯾﺮ رﻗﻢ 4ﺑﺴﺎزﯾﻢ .ﭼﻨﺪ ﻣﻮرد از ﺗﺼﺎوﯾﺮ ارﻗﺎم در ﻣﺠﻤﻮﻋﻪ دادهی MNISTرا در ﺷ ﻞ ٨ﻣﺸﺎﻫﺪه ﻣ ﮐﻨﯿﻢ .دادهﻫﺎی ﻣﻮرد ﻧﯿﺎز اﯾﻦ ﺑﺨﺶ در ﻓﺎﯾﻞ mnist49ﻗﺮار دارﻧﺪ .در ﻫﺮﯾ از ﺷ ﻞ :٨ ﻣﺎﺗﺮﯾﺲﻫﺎی trainو ،testﺳﺘﻮنﻫﺎی 1ﺗﺎ 784ﻣﻘﺎدﯾﺮ روﺷﻨﺎﯾ ﭘﯿ ﺴﻞﻫﺎ اﺳﺖ و ﺳﺘﻮن آﺧﺮ رﻗﻤ اﺳﺖ ﮐﻪ اﯾﻦ ﺗﺼﻮﯾﺮ ﻧﺸﺎن ﻣ دﻫﺪ. ١۵ http://yann.lecun.com/exdb/mnist/ Programming ۶ ١۶ Quadratic ﻣﺎﺷﯿﻦ ﺑﺮدار ﭘﺸﺘﯿﺒﺎن ﺣﺎﺷﯿﻪی ﻧﺮم را روی اﯾﻦ دادهﻫﺎ اﺟﺮا ﮐﻨﯿﺪ .در اﯾﻦ ﺑﺨﺶ از ﻫﺴﺘﻪی k(xi , xj ) = xTi xjاﺳﺘﻔﺎده ﮐﻨﯿﺪ .ﭘﺎراﻣﺘﺮ Cرا از ﺑﯿﻦ ﻣﻘﺎدﯾﺮ } {0.001, 0.1, 1, 10, 100, 1000, 10000, 100000و ﺑﺎ روش 5f old CVﺗﻌﯿﯿﻦ ﮐﻨﯿﺪ .درﺻﺪ ﺧﻄﺎی دﺳﺘﻪﺑﻨﺪ را روی ﻣﺠﻤﻮﻋﻪﻫﺎی آﻣﻮزش و آزﻣﻮن ﮔﺰارش ﻧﻤﺎﯾﯿﺪ. ) ( ||xi −xj ||2 k(xi , xj ) = exp − 2σ2اﺳﺘﻔﺎده ﮐﻨﯿﺪ .ﻣﻘﺪار σرا از ﻣﻘﺎدﯾﺮ ۵) .٣.۵ﻧﻤﺮه( اﯾﻦ ﺑﺎر از ﻫﺴﺘﻪی ﮔﺎوﺳ } {0.001, 0.1, 1, 10, 100, 1000, 10000, 100000و ﺑﺎ روش 5f old CVﺗﻌﯿﯿﻦ ﮐﻨﯿﺪ .درﺻﺪ ﺧﻄﺎی دﺳﺘﻪﺑﻨﺪ ﺣﺎﺻﻞ را روی ﻣﺠﻤﻮﻋﻪﻫﺎی آﻣﻮزش و آزﻣﻮن ﮔﺰارش ﮐﻨﯿﺪ. ٨) .۴.۵ﻧﻤﺮه( در اﯾﻦ ﺑﺨﺶ ﻣ ﺧﻮاﻫﯿﻢ ﺗﺼﺎوﯾﺮ را ﺑﻪ ١٠دﺳﺘﻪ)ﯾ دﺳﺘﻪ ﺑﺮای ﻫﺮ رﻗﻢ( دﺳﺘﻪﺑﻨﺪی ﮐﻨﯿﻢ .دادهﻫﺎی ﻣﻮرد ﻧﯿﺎز اﯾﻦ ﺑﺨﺶ در ﻓﺎﯾﻞ mnistﻗﺮار دارﻧﺪ .اﺑﺘﺪا ﺑﺎ اﺳﺘﻔﺎده از روش one v.s. oneﻣﺴﺎﻟﻪ را ﺑﻪ ﺗﻌﺪادی ﻣﺴﺎﻟﻪی دﺳﺘﻪﺑﻨﺪیِ دو ﮐﻼﺳﻪ ﺗﺒﺪﯾﻞ ﮐﻨﯿﺪ .در اﯾﻦ ﺑﺨﺶ از ) ( ||x −x ||2 k(xi , xj ) = exp − i2σ2jاﺳﺘﻔﺎده ﮐﻨﯿﺪ .ﻣﻘﺪار σرا از ﻣﻘﺎدﯾﺮ }{0.001, 0.1, 1, 10, 100, 1000, 10000, 100000 ﻫﺴﺘﻪی ﮔﺎوﺳ و ﺑﺎ روش 5f old CVﺗﻌﯿﯿﻦ ﮐﻨﯿﺪ .ﭘﺎراﻣﺘﺮ Cرا از ﺑﯿﻦ ﻣﻘﺎدﯾﺮ } {0.001, 0.1, 1, 10, 100, 1000, 10000, 100000و ﺑﺎ روش 5f old CVﺗﻌﯿﯿﻦ ﮐﻨﯿﺪ .درﺻﺪ ﺧﻄﺎی دﺳﺘﻪﺑﻨﺪ را روی ﻣﺠﻤﻮﻋﻪﻫﺎی آﻣﻮزش و آزﻣﻮن ﮔﺰارش ﻧﻤﺎﯾﯿﺪ. ۴) .۵.۵ﻧﻤﺮه( ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻧﺘﺎﯾﺞ ﺑﻪ دﺳﺖ آﻣﺪه در ﻗﺴﻤﺖﻫﺎی ﻗﺒﻞ ،ﺗﺎﺛﯿﺮ ﭘﺎراﻣﺘﺮﻫﺎی Cو σروی ﺧﻄﺎی آﻣﻮزش و آزﻣﻮن را ﺑﺮرﺳ ﻧﻤﺎﯾﯿﺪ. ﻫﻤﭽﻨﯿﻦ ﺗﺎﺛﯿﺮ ﭘﺎراﻣﺘﺮﻫﺎی Cو σروی اﻧﺪازهی ﺣﺎﺷﯿﻪ و ﭘﯿﭽﯿﺪﮔ ﻣﺪل را ﺗﺤﻠﯿﻞ ﻧﻤﺎﯾﯿﺪ. ٧
© Copyright 2025 Paperzz