自然应用中,ln=loge,自然熵为S=K*lnΩ
信息应用中,ln=log2,信息熵为S=log2Ω 8.4 夹逼定理
为了证明第二个重要极限,需要一条引理,这就是夹逼定理
在某一域上,若g(x)≤f(x)≤h(x),同时我们还知道,当x趋向a时,g(x)的极限等于L,以及当x趋向a时,h(x)的极限也等于L:
那么夹逼定理告诉我们:当x趋向a时,f(x)的极限也一定等于L。
为了证明第二个重要极限,需要一条引理,这就是夹逼定理
在某一域上,若g(x)≤f(x)≤h(x),同时我们还知道,当x趋向a时,g(x)的极限等于L,以及当x趋向a时,h(x)的极限也等于L:
那么夹逼定理告诉我们:当x趋向a时,f(x)的极限也一定等于L。
版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。