TAILIEUCHUNG - Bài giảng Học sâu và ứng dụng: Bài 2 - ĐH Bách khoa Hà Nội

Bài giảng Học sâu và ứng dụng: Bài 2 Giới thiệu về mạng nơ-ron, cung cấp cho người học những kiến thức như: Mạng nơ-ron và bộ não; Một số hàm kích hoạt thường gặp; Tầm quan trọng của hàm kích hoạt; Mạng nơ-ron một lớp ẩn, Định lý xấp xỉ tổng quát; Giải thuật lan truyền ngược; .Mời các bạn cùng tham khảo! | 1 Học sâu và ứng dụng IT4653 Bài 2 Giới thiệu về mạng nơ-ron 2 Mạng nơ-ron và bộ não Mạng nơ-ron mô phỏng cấu trúc kết nối của não người Não người tạo bởi nhiều nơ-ron liên kết với nhau 3 Perceptron Bắn xung fire nếu tổng có trọng số của các đầu vào với bias T không âm 4 Perceptron mềm logistic Sử dụng một hàm khả vi thay cho hàm xung Hàm kích hoạt sigmoid được dùng để xấp xỉ hàm xung Hàm kích hoạt là hàm tác động lên tổng có trọng số của các dữ liệu vào 5 Perceptron mềm logistic 6 Một số hàm kích hoạt thường gặp ReLU là lựa chọn mặc định tốt cho nhiều bài toán Hiện nay xu hướng dùng một số hàm kích hoạt hiện đại hơn như ReLU6 swish mish 7 Tầm quan trọng của hàm kích hoạt Mục đích sử dụng hàm kích hoạt là đưa các lớp phi tuyến vào mạng nơ-ron Hàm kích hoạt tuyến tính luôn Các lớp phi tuyến cho phép sinh ra đường phân cách chúng ta xấp xỉ các hàm phức tuyến tính bất kể mạng có lớn tạp cỡ nào 8 Perceptron đơn giản hóa 9 Perceptron đơn giản hóa 10 Perceptron nhiều đầu ra 11 Mạng nơ-ron một lớp ẩn 12 Mạng nơ-ron một lớp ẩn 13 Mạng nơ-ron nhiều lớp 14 Mạng nơ-ron và bộ não Nơ-ron sinh học Mạng nơ-ron nhân tạo Kết nối phức tạp Các nơ-ron tổ chức thành các lớp layers để tăng hiệu quả tính toán nhờ song song hóa 15 Định lý xấp xỉ tổng quát Theorem Universal Function Approximators . Một mạng nơ-ron từ hai lớp trở lên với số lượng nơ-ron đủ lớn có thể xấp xỉ bất kỳ hàm liên tục nào với độ chính xác tùy ý 16 Universal Function Approximation Theorem In words Given any continuous function f x if a 2-layer neural network has enough hidden units then there is a choice of weights that allow it to closely approximate f x . Cybenko G. 1989 . Approximations by superpositions of a sigmoidal function. Mathematics of Control Signals and Systems 2 183-192. Hornik K. 1991 . Approximation capabilities of multilayer feedforward networks. Neural networks 4 2 251-257. Leshno M. Lin V. Y. Pinkus A. amp Schocken S. 1993 . Multilayer feedforward networks with a nonpolynomial activation function

TAILIEUCHUNG - Chia sẻ tài liệu không giới hạn
Địa chỉ : 444 Hoang Hoa Tham, Hanoi, Viet Nam
Website : tailieuchung.com
Email : tailieuchung20@gmail.com
Tailieuchung.com là thư viện tài liệu trực tuyến, nơi chia sẽ trao đổi hàng triệu tài liệu như luận văn đồ án, sách, giáo trình, đề thi.
Chúng tôi không chịu trách nhiệm liên quan đến các vấn đề bản quyền nội dung tài liệu được thành viên tự nguyện đăng tải lên, nếu phát hiện thấy tài liệu xấu hoặc tài liệu có bản quyền xin hãy email cho chúng tôi.
Đã phát hiện trình chặn quảng cáo AdBlock
Trang web này phụ thuộc vào doanh thu từ số lần hiển thị quảng cáo để tồn tại. Vui lòng tắt trình chặn quảng cáo của bạn hoặc tạm dừng tính năng chặn quảng cáo cho trang web này.