New Bounds for Entropy of Information Sources

سال انتشار: 1399
نوع سند: مقاله ژورنالی
زبان: انگلیسی
مشاهده: 39

فایل این مقاله در 9 صفحه با فرمت PDF قابل دریافت می باشد

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

JR_WALA-7-2_001

تاریخ نمایه سازی: 16 بهمن 1402

چکیده مقاله:

Shannon's entropy plays an important role in information theory, dynamical systems and thermodynamics. In this paper we applying Jensen's inequality in information theory and we obtain some results for the Shannon's entropy of random variables and Shannon's entropy of stochastic process. Also we obtain upper bound and lower bound for Shannon's entropy of information sources.

نویسندگان

Yamin Sayyari

Department of Mathematics, Sirjan University Of Technology, Sirjan, Islamic Republic of Iran.

مراجع و منابع این مقاله:

لیست زیر مراجع و منابع استفاده شده در این مقاله را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود مقاله لینک شده اند :
  • J.M. Amigo and M.B. Kennel, Topological permutation entropy, Physica D, ...
  • J.M. Amigo, Permutation Complexity in Dynamical Systems "Ordinal Patterns, Permutation ...
  • Ch. Corda, M. FatehiNia, M.R. Molaei and Y. Sayyari, Entropy ...
  • A. Mehrpooya, Y. Sayyari and M.R. Molaei, Algebraic and Shannon ...
  • S. SIMIC, Jensen’s inequality and new entropy bounds, Appl. Math. ...
  • N. Tapus and P.G. Popescu, A new entropy upper bound, ...
  • P. Walters, An Introduction to Ergodic Theory, Springer Verlag, New ...
  • نمایش کامل مراجع