TAILIEUCHUNG - Information Theory, Inference, and Learning Algorithms phần 4

Năng lực của Gaussian kênh Tập thể dục [3, ] Chứng minh rằng sự phân bố xác suất P (x) nhằm tối đa hóa các thông tin lẫn nhau (để hạn chế x 2 = v) là một phân phối Gaussian không có nghĩa là và v không đúng. Tập thể dục 11,2 [2, ] Hiển thị thông tin lẫn nhau I (X, Y), trong trường hợp này phân bố tối ưu hóa | Copyright Cambridge University Press 2003. On-screen viewing permitted. Printing not permitted. http 0521642981 You can buy this book for 30 pounds or 50. See http mackay itila for links. Capacity of Gaussian channel 181 Exercise . 3 p-189 Prove that the probability distribution P x that maximizes the mutual information subject to the constraint x2 v is a Gaussian distribution of mean zero and variance v. . Exercise . 2 p-189 Show that the mutual information I X Y in the case of this optimized distribution is C 1 log Ọ 2 Ơ2 This is an important result. We see that the capacity of the Gaussian channel is a function of the signal-to-noise ratio v ơ2. Inferences given a Gaussian input distribution If P x Normal x 0 v and P y I x Normal y x ơ2 then the marginal distribution of y is P y Normal y 0 v Ơ2 and the posterior distribution of the input given that the output is y is P x I y P y I x P x exp y x 2 2ff2 exp x2 2v Normal I x T y I----y v Ớ2 v Ơ2 I The step from to is made by completing the square in the exponent. This formula deserves careful study. The mean of the posterior distribution -pf-pr y can be viewed as a weighted combination of the value that best fits the output x y and the value that best fits the prior x 0 v 1 Ớ2 1 v . -2 y 1 v 1 ff2 y 1 v I 1-2 1 11 30 The weights 1 Ớ2 and 1 v are the precisions of the two Gaussians that we multiplied together in equation the prior and the likelihood. The precision of the posterior distribution is the sum of these two precisions. This is a general property whenever two independent sources contribute information via Gaussian distributions about an unknown variable the precisions add. This is the dual to the better-known relationship when independent variables are added their variances add . Noisy-channel coding theorem for the Gaussian channel We have evaluated a maximal mutual information. Does it correspond to a .

TAILIEUCHUNG - Chia sẻ tài liệu không giới hạn
Địa chỉ : 444 Hoang Hoa Tham, Hanoi, Viet Nam
Website : tailieuchung.com
Email : tailieuchung20@gmail.com
Tailieuchung.com là thư viện tài liệu trực tuyến, nơi chia sẽ trao đổi hàng triệu tài liệu như luận văn đồ án, sách, giáo trình, đề thi.
Chúng tôi không chịu trách nhiệm liên quan đến các vấn đề bản quyền nội dung tài liệu được thành viên tự nguyện đăng tải lên, nếu phát hiện thấy tài liệu xấu hoặc tài liệu có bản quyền xin hãy email cho chúng tôi.
Đã phát hiện trình chặn quảng cáo AdBlock
Trang web này phụ thuộc vào doanh thu từ số lần hiển thị quảng cáo để tồn tại. Vui lòng tắt trình chặn quảng cáo của bạn hoặc tạm dừng tính năng chặn quảng cáo cho trang web này.