TAILIEUCHUNG - Problems_ Chapter 3

Tài liệu tham khảo toán học bằng tiếng anh Problems_ Chapter 3, dành cho các bạn sinh viên đại học. | Problems _ Chapter 3 A discrete source generates three independent symbols A, B and C with probabilities , and respectively. a) Determine the entropy of the source. b) Determine the redundancy of the source. a) Consider a source having an M = 3 symbol alphabet where p(x1) = ½, p(x2) = p(x3) = ¼ and symbols are statistically independent. Calculate the information conveyed by the receipt of the symbol x1. Repeat for x2 and x3. b) Consider a source whose, statistically independent, symbols consist of all possible binary sequences of length k. Assume all symbols are equiprobable. How much information is conveyed on receipt of any symbol. c) Dermine the information conveyed by the specific message x1x3x2x4 when it emanates from the following statistically independent symbol source: M = 4, p(x1) = 1/2, p(x2) = 1/4, p(x3) = p(x4) = 1/8. Calculate the loss information due to noise, per transmitted digit, if a random binary signal is transmitted through a channel, which adds zero mean Gaussian noise, with an average signal-to-noise ratio of: a) 0 dB b) 5 dB c) 10 dB An information source contains 100 different, statistically independent, equiprobable symbols. Find the maximum code efficiency, if, for transmission, all the symbols are represented by binary code words of equal length. a) Apply Huffman’s algorithm to deduce an optimal code for transmitting the source defined in problem over a binary channel. Is your code unique? b) Determine the efficiency of the code devised in part (a). c) Construct another code for the source of part (a) and assign equal length binary words irrespective of the occurrence probability of the symbols. Calculate the efficiency of this source. An input alphabet (a keyboard on a word processor) consists of 100 characters. a) If the keystrokes are encoded by a fixed-length code, determine the required number of bits for the encoding b) We make the assumption that 10 of the keystrokes are equally likely and that each occurs with probability of . We also assume that the remaining 90 keystrokes are equally likely. Determine the average number of bits required to encode this alphabet using a variable-length Huffman code. Encode the specific message AABACB using: a) The 7-bit ASCII. b) The adaptive Huffman code. c) Compare the number of bits in encoded message in part (a) and part (b). Give your comments.

TÀI LIỆU LIÊN QUAN
TỪ KHÓA LIÊN QUAN
TAILIEUCHUNG - Chia sẻ tài liệu không giới hạn
Địa chỉ : 444 Hoang Hoa Tham, Hanoi, Viet Nam
Website : tailieuchung.com
Email : tailieuchung20@gmail.com
Tailieuchung.com là thư viện tài liệu trực tuyến, nơi chia sẽ trao đổi hàng triệu tài liệu như luận văn đồ án, sách, giáo trình, đề thi.
Chúng tôi không chịu trách nhiệm liên quan đến các vấn đề bản quyền nội dung tài liệu được thành viên tự nguyện đăng tải lên, nếu phát hiện thấy tài liệu xấu hoặc tài liệu có bản quyền xin hãy email cho chúng tôi.
Đã phát hiện trình chặn quảng cáo AdBlock
Trang web này phụ thuộc vào doanh thu từ số lần hiển thị quảng cáo để tồn tại. Vui lòng tắt trình chặn quảng cáo của bạn hoặc tạm dừng tính năng chặn quảng cáo cho trang web này.