يادگيری ماشين ( 04-717گروه دوم) نيمسال اول 49-40 تمرين سری چهارم :يادگيری مبتنی بر نمونه ،تئوری يادگيری و يادگيری جمعی مدرس :سليمانی موعد تحويل تمرين دستی :شنبه 24آذر قبل از 12ظهر نمره77 : موعد تحويل پيادهسازی و گزارش :يکشنبه 94آذر ساعت 20 به همراه بخش پيادهسازی بايد گزارشی از همه نتايج و تحليل آنها ارسال شود. بخش پيادهسازی به صورت حضوری نيز تحويل و بررسی خواهد شد که زمان آن متعاقباً اعالم میشود. سوال 97( 1نمره) :روشهای يادگيری مبتنی بر نمونه .1.1در اين سوال هدف بررسی خطای دستهبند نزديکترين همسايه در حالتی که تعداد نمونهها به سمت بینهايت میل میکند است. 7( .aنمره) نشان دهید که 𝑃 نشان دهندهی احتمال خطای دستهبند نزديکترين همسايه وقتیکه ∞ → 𝑁 میرود با نرخ خطای بیز ∗𝑃 در دو حالت 𝑃∗ = 0و 𝑐 𝑃∗ = (𝑐 − 1)/برابر خواهد شد. 5( .bنمره) در حالتی که 𝑐 دسته با احتمال پیشین برابر داشته باشیم و چگالی احتمال شرطی دستهها به صورت زير باشد: 𝑟𝑐 𝑐−1 𝑟𝑐 𝑖 ≤ 𝑥 ≤𝑖+1− 𝑐−1 𝑜. 𝑤. ≤𝑥<0 1 = ) 𝑖𝑤|𝑥(𝑝 1 {0 نشان دهید که 𝑟 = ∗𝑃 = 𝑃. .1.1در اين سوال سعی میکنیم رابطه بین روشهای kنزديکترين همسايه و رگرسیون وزندار را بررسی کنیم .فرض کنید يک 𝑛 مجموعه داده dبعدی به صورت {(𝒙(𝑖) , 𝑦 (𝑖) )}𝑖=1داشته باشیم .مقدار تخمین زده شده 𝑦 برای داده 𝒙 در روش رگرسیون وزندار را با )𝒙( ̂𝑟 نشان داده و آن را به صورت زير تعريف میکنیم که 𝑘 يک تابع هسته است. 𝑖 𝑦) )𝑖(𝒙 ∑𝑛𝑖=1 𝑘(𝒙 − ) )𝑖(𝒙 ∑𝑛𝑖=1 𝑘(𝒙 − = )𝒙( ̂𝑟 در واقع ̂𝑟 میتواند بر اساس جمع وزنداری از )𝑖( 𝑦 ها به صورت ) 𝑟̂ (𝒙) = ∑𝑛𝑖=1 𝑤(𝒙, 𝒙(i))𝑦 (iنوشته شود که )𝑖( ) 𝒙 . ∑𝑛 𝑘(𝒙− )) )𝑖(𝒙 𝑘(𝒙− 𝑖=1 = ) )𝑤(𝒙, 𝒙(i 3( .aنمره) فرض کنید در يک حالت خاص مجموعه داده ما يک بعدی ،با 𝑛 نمونه به صورت 𝑛 𝑥 (𝑖) = 𝑖; 𝑖 = 1, … ,و با دو دسته } 𝑦 (i) ∈ {0,1باشد .اگر برای تخمین مقدار 𝑦 newمتناظر با هر داده جديد ]𝑛 ،𝑥 𝑛𝑒𝑤 ∈ [0,از قانون = 𝑤𝑒𝑛 ̂𝑦 ) 𝐼(𝑟̂ (𝑥) > 0.5استقاده شود ،آيا میتوان يک تابع هسته 𝑘 در رابطه باال در نظر گرفت به طوريکه به جواب يکسانی با روش kNNبرسیم؟ 3( .bنمره) اگر دادهها از يک توزيع دلخواه )𝑥(𝑃 تولید شده باشند و به جای رگرسیون وزندار از رگرسیون وزندار محلی به صورت زير استفاده کنیم: 𝑖𝑦) 𝑖𝑥 𝑤(𝑥, ∑ = )𝑥( ̂𝑟 𝑥 𝑓𝑜 𝑁𝑁𝑥 (𝑖) ∈𝑘− ) 𝑖𝑥 𝑤(𝑥,چگونه انتخاب شود تا قانون ) 𝑦̂ = 𝚰(𝑟̂ (𝑥) > 0.5جواب يکسانی با kنزديکترين همسايه داشته باشد؟ .3.3فرض کنید مجموعه دادهای از 𝑛 نمونه برچسبدار با مقادير برچسب } 𝑦 ∈ {−1, 1داريم و فرض کنید که تابع چگالی نمونههای مربوط به هر دسته را به صورت جداگانه با پنجره Parzenبا تابع هسته ) 𝑘(𝒙, 𝒙′مدل کنیم .به توجه به اين مسئله به سؤاالت زير پاسخ دهید. )a ( 2نمره) قانون تصمیم بر اساس حداقل احتمال خطای تصمیمگیری را بنويسید. )b ( 3نمره) نشان دهید که با انتخاب تابع هسته به صورت 𝑘(𝒙, 𝒙′ ) = 𝒙𝑇 𝒙′قانون تصمیمگیری عبارت خواهد بود از انتساب ورودی به دستهای که میانگین آن به اين داده نزديکتر است. )c ( 2نمره) اگر تابع هسته به صورت ) 𝑘(𝒙, 𝒙′ ) = 𝜙(𝒙)𝑇 𝜙(𝒙′تعريف شود ،دستهبندی به چه صورت انجام خواهد شد؟ .1.3پيادهسازی دستهبند 14( k-NNنمره) دستهبند kنزديکترين همسايه را برای مجموعه داده سه دستهای irisکه هر داده شامل 1ويژگی است پیادهسازی کرده و نتايج مربوط به خطای دستهبندی روی مجموعههای آموزش و آزمون را گزارش کنید .برای تعیین مقدار مناسب 𝑘 (از بین مقادير 3تا )33از روش 5-fold CVاستفاده کرده و نموداری که تأثیر تغییر 𝑘 در دقت دستهبندی روی مجموعه اعتبارسنجی را نشان دهد رسم کنید. سوال 17( 2نمره) :تئوری يادگيری 6( .1.1نمره) فضای فرضیه 𝑑𝐻 شامل درختهای کامل با ارتفاع 𝑑 را در نظر بگیرید که در هر عمق (در همه شاخهها) یک ویژگی دودویی یکسان مورد ارزیابی قرار میگیرد و ارتفاع همه برگها برابر 𝑑 است 10,000 .نمونه هر کدام با چهل ویژگی دودویی را برای آموزش داریم .تابع اصلی با درختی به ارتفاع بیست (با خصوصیات ذکر شده) قابل بیان است ،اما learnerاز این مطلب آگاه نیست .همچنین learnerچنانچه در فضای فرضیات فرضیههایی با خطای آموزش صفر وجود داشته باشد از بین آنها یکی را انتخاب میکند .در این قسمت سعی داریم با استفاده از تئوری PACخطای واقعی (خطا روی دادههای تست) را تخمین بزنیم .در این تمرین 𝛿 = 0.1در نظر گرفته شود و منظور از ℎ20درختی به ارتفاع بیست داخل فضای فرضیه 𝐻20است. .aباند باالی ) 𝑒𝑟𝑟𝑜𝑟𝑡𝑟𝑢𝑒 (ℎ20را محاسبه کنید. .bآیا میتوان باند خطای ℎ10را نیز به همین روش محاسبه کرد؟ اگر خیر چرا؟ آیا روش جایگزینی وجود دارد؟ 9( .2.2نمره) بعد VCرا برای دستهبندهای زير با ذکر توضیح پیدا کنید: 1NN .a .bدستهبندی که در فضای 𝑑 بعدی برای هر ويژگی میتواند حداکثر يک بازه بسته تعیین کند که داخل آن برچسب مثبت است و بیرون آن منفی فرض میشود. .cدسته بندی در فضای دوبعدی که داخل يک دايره (با شعاع و مرکز دلخواه) را برچسب مثبت و خارج آن را برچسب منفی میدهد. سوال ( 9نمره) :يادگيری جمعی ( 27نمره) .3.3فرض کنید در يک مسالهی رگرسیون تابع مطلوب ℎباشد و توابع 𝑀𝜖 𝜖1 , … ,به ترتیب تفاضل خروجی تابعهای 𝑀ℎ1 , … , ℎ با تابع مطلوب ℎرا نشان دهند يا به عبارت ديگر )𝒙( .𝜖𝑚 (𝒙) = ℎ𝑚 (𝒙) − ℎبه اين ترتیب امید 3مجذورات خطا روی 2 کل توزيع (بردار ورودی) برای تابع 𝑚 ℎبه صورت ] ))𝒙( 𝑚𝜖([ 𝒙𝐸 در میآيد و میانگین اين مقادير را برای توابع 𝑀 ℎ1 , … , ℎنشان میدهد .حال اگر تابع ترکیبی 2 𝑀∑ ] ))𝒙( 𝑚𝜖([ 𝒙𝐸 𝑚=1 𝑀∑ )𝒙( 𝑚𝑚=1 ℎ 1 𝑀 1 𝑀 = 𝑔𝑣𝑎𝐸 = )𝒙( 𝑀𝐻 را در نظر 2 𝑀∑ )𝐸𝑐𝑜𝑚 = 𝐸𝒙 [(𝑀1 بگیريد و امید مجذورات خطا برای )𝒙( 𝑀𝐻 روی کل توزيع را 𝑚𝑜𝑐𝐸 بنامیم (] ))𝒙(𝑚=1 ℎ𝑚 (𝒙) − ℎ 6( .aنمره) نشان دهید 𝑔𝑣𝑎𝐸 ≤ 𝑚𝑜𝑐𝐸. (راهنمايی :میتوانید از نامساوی Jensonکه به ازای هر تابع محدب 𝑓 داريم )]𝒙[𝑓(𝐸 ≤ )]𝒙[𝐸(𝑓 استفاده نمايید). 6( .bنمره) چنانچه امید خطای مدلهای پايه ناهمبسته باشد ( ،)∀𝑚 ≠ 𝑙 𝐸𝒙 [𝜖𝑚 (𝒙)𝜖𝑙 (𝒙)] = 0نشان دهید 𝑔𝑣𝑎𝐸 𝑀 = 𝑚𝑜𝑐𝐸. 6( .1.2نمره) فرض کنید که AdaBoostروی 𝑛 نمونه آموزش داده میشود و خطای وزندار هر کدام از دستهبندهای پایه کمتر از 0.5است .برای اینکه فرضیه ایجاد شده با نمونههای آموزش سازگار شود یا به عبارت دیگر خطای آموزش آن صفر شود، تعداد تکرارهای الگوریتم AdaBoostرا بر حسب 𝑡𝜖 γ = maxو 𝑛 بهدست آورید. 𝑡 راهنمایی :از این نکته استفاده کنید که زمانیکه 𝑒𝑟𝑟𝑜𝑟𝑡𝑟𝑎𝑖𝑛 (ℎ) < 𝑛1باشد ،میتوانیم مطمئن باشیم که خطای آموزش صفر است. 7( .3.3نمره) مجموعه داده يک بعدی با ويژگی 𝑥 که در شکل زير نشان داده شده را در نظر بگیريد .فرض کنید میخواهیم يک درخت تصمیم با استفاده از اين مجموعه داده آموزش دهیم. 3 Expectationن با فرض استفاده از decision stumpsبه عنوان دستهبند ضعیف روی دادههای باال به سواالت زیر پاسخ دهید: .aپس از اولین مرحله از اجرای AdaBoostمرز تصمیمگیری به چه شکلی خواهد بود؟ .bخطای وزندار دستهبند در این مرحله چقدر است؟ .cوزن جدید نمونهها چقدر خواهد بود؟ .dپس از دومین بار اجرای AdaBoostمرز تصمیمگیری چگونه است؟ .eآیا دقت دستهبندی بهبود یافته است؟
© Copyright 2025 Paperzz