دانلود رایگان نمونه سوالات آشنایی با نظریه اطلاع با جواب (استخدامی)
برای دانلود رایگان اینجا کلیک کنیدقسمتی از سوالات آشنایی با نظریه اطلاع :
– اندازه اطلاع در انتخاب تصادفی یکی از حروف الفبای انگلیسی کدام است؟
الف. 7/0 بيت ☑
ب. ۴ بيت
ج. ۷/۴ بيت
د. ۳ بیت
– با افزایش عدم حتمیت چه تغییری در اطلاع موضعی یک پیشامد ایجاد می شود؟
الف. ممکن است افزایش یا کاهش یابد.
ب. کاهش می یابد.
ج. افزایش می یابید. ☑
د. تغییری نمی کند.
– هنگامی که پیشامدها به طور یکسان غیر حتمی باشند مقدار آنتروپی S کدام است؟
الف. ماکسیمم است. ☑
ب. مینیممم است.
ج. صفر است
د. یک است.
– افزایش تعداد پردازشگرها چه تغییری در اطلاع متقابل بین ورودی و خروجی ایجاد می کند؟
الف. باعث افزایش اطلاع می شود.
ب. باعث کاهش اطلاع می شود. ☑
ج. تغییری ایجاد نمی کند.
د. بستگی به شرایط دارد.
– با استفاده از کدام قضیه نتیجه میشود که اگر الفبای کدی دودویی و مبنای لگاریتم ۲ باشد متوسط طول کدواژه ها نمی تواند از آنتروپی منبع کمتر باشد؟
الف. قضیه یکتایی
ب. قضیه پردازش داده ها
ج. قضیه کدگذاری با طول متغیر ☑
د. قضيه تحدب
– فرض کنید ۵ حرف منبعی به ترتیب دارای احتمالهای ۳/۰ و ۲۵/۰ و۲۵/۰ و ۱/۰ و ۱/۰ باشند. در صورتیکه به روش کدگذاری هافمن برای ۵ حرف این منبع به ترتیب نتایج ۰۰ و ۰۱ و ۱۰ و ۱۱۰ و ۱۱۱ بدست آمده است. متوسط طول کدواژه کدام است؟
الف. ۲/۲ ☑
ب. ۲۲
ج. ۲
ج. ۲/۰
– اگر هر حرف یک منبع ۱۷ حرفی دارای احتمالهای برابر بوده و با یک کد هافمن دودویی بهینه کدگذاری شده باشند. متوسط طول کدواژه کدام است؟
الف. ۲۸/۴
ب. ۸۲/۴ ☑
ج. ۴۲/۸
د. ۸۴/۲
– یکی از حروف الفبای انگلیسی را به تصادف انتخاب کرده ایم اندازه اطلاع در این انتخاب کدام است؟
7/0 بیت
4 ست
7/4 بيت ☑
ج. ۳ بيت
– اطلاع موضعی یک پیشامد با افزایش عدم حتمیت آن چه تغییری می کند؟
الف. افزایش می یابد. ☑
ب. کاهش می یابد.
ج. تغییری نمی کند.
د. ممکن است افزایش یا کاهش یابد.
– مقدار آنتروپی S هنگامی که پیشامدها به طور یکسان غیر حتمی باشند کدام است؟
الف. مینیمم است.
ب. ماکسیمم است. ☑
ج. صفر است.
د. یک است.
– افزایش تعداد پردازشگرها چه تغییری در اطلاع متقابل بین ورودی و خروجی ایجاد می کند؟
الف. باعث کاهش اطلاع می شود. ☑
ب. باعث افزایش اطلاع می شود.
ج. تغییری ایجاد نمی کند.
د. هیچکدام
– با استفاده از کدام قضیه نتیجه میشود که اگر الفبای کدی دودویی و مبنای لگاریتم ۲ باشد متوسط طول کدواژه ها نمی تواند از آنتروپی منبع کمتر باشد؟
الف. قضیه یکتایی
ب. قضيه تحدب
ج. قضیه پردازش داده ها
د. قضیه کد گذاری با طول متغیر ☑
– اگر هر حرف یک منبع ۱۷ حرفی دارای احتمالهای برابر باشد و با یک کد هافمن دودویی بهینه کدگذاری شده باشند.
الف. ۲۸/۴
ب. ۸۲/۴ ☑
ج. ۴۲/۸
د. ۸۴/۲
– واحد پهنای باند چیست؟
الف. دسی متر
ب. بیت بر ثانیه
ج. مگا هرتز
د. هرتز ☑
– آنتروپی مشترک دو دستگاه به طور آماری مستقل برابر …………….آنهاست.
الف. معدل اطلاع متقابل دو پیشامد آنهاست
ب. معدل آنتروپیهای مجزای آنهاست
ج. مجموع آنتروپیهای مجرای آنهای ☑
د.مجموع اطلاع متقابل بین دو پیشامد آنهاست
– اگر یک جفت سکه را پرتاب کنیم چقدر اطلاع در مجموعه ۲ آمدن آنها وجودد دارد؟
الف. ۲
ب. ۵/۲ ☑
ج. ۲/۵
د. ۴/۳
– هر حرف الفبای انگلیسی با کدگزاری با طول ثابت به یک نمایش دودویی تبدیل شده است. حداقل طول یک که واژه چقدر است؟
الف. ۲
ب. ۳
ج. ۴
د. ۵ ☑
– در مبحث کانالها اگر به هر حرف a از ورودی کانال یک ………… از خروجی آن متناظر باشد گوییم کانال ………… است.
الف. حرف یکتای b بدون حافظه
ب. حرف یکتای b با حافظه
ج. حرف یکتای b نوفه دار
د. حرف یکتای b بدون نوفه ☑
– اطلاع متقابل، تابعی ……………… از احتمال ……………….. است.
الف. محدب، خروجی
ب. مقعر، ورودی
ج. محدب، ورودی ☑
د. مقعر، خروجی
– احتمال……………. متناظر با ظرفیت کانال………………. هستند.
الف. ورودی، متمایر
ب. خروجی متمایر
ج. خروجی یکتا ☑
د. ورودی ، یکتا
– در قضیه اول شانون کمیت ایهام ………………
الف. به دلخواه بزرگ است.
ب. منفی است.
ج. برابر عدد یک است.
د. به دلخواه کوچک است. ☑
– نمادهای ورودی و خروجی یک کانال عبارت اند از ۳.۲.۱.۰ نماد ورودی i با احتمال برابر به i، i +1 تبدیل می شود ظرفیت کانال چقدر است؟
الف. log2 ☑
ب. Log3
ج. ۱
د. ۰
– مجموع دو متغیر گاوسی به طور مستقل ……… است.
الف. نرمال
ب. پواسون
ج. گاوسی ☑
د. کای دو
– کدام یک از گزینه های زیر درباره آنتروپی صحیح نمی باشد؟
الف. آنترویی صفر می شود اگرو تنها اگر حتمیت کامل وجود داشته باشد.
ب. آنتروپی همواره مثبت است. ☑
ج. H(S)≤log(n)
د. انتروبی را می توان به عنوان اندازه ای برای عدم حمیت تلقی کرد.
– هر حرف الفبای انگلیسی با کدگزاری با طول ثابت به یک نمایش دودویی تبدیل شده است. حداقل طول یک که واژه چند حرف است؟
الف. ۳
ب. ۵ ☑
ج. ۱
د. ۴