ngoisaobang_ngoisaobang251
New Member
Download miễn phí Luận văn Thiết kế lưới địa chính đo vẽ bản đồ địa chính tỷ lệ 1/500-1/2000 khu vực thị xã Rạch Giá, huyện Châu Thành tỉnh Kiên Giang
MỤC LỤC
Lời cảm ơn
Nhận xét của giáo viên
Lời nói đầu
Mục lục
Chương I: TỔNG QUAN VỀ MẠNG NEURAL
I. LỊCH SỬ PHÁT TRIỂN CỦA MẠNG NEURAL 1
II. MẠNG NEURAL VÀ CÁC KHÁI NIỆM CƠ BẢN 2
II.1. Giới thiệu về mạng Neural 2
II.2. Cấu trúc và phân loại mạng Neural 6
II.2.1. Phân loại theo cấu trúc 6
II.2.2. Phân loại theo phương pháp dạy 7
II.3. Cấu trúc mạng Neural 8
II.3.1. Mạng Neural một lớp 8
II.3.1. Mạng Neural nhiều lớp 9
III. LUẬT HỌC VÀ CÁC PHƯƠNG PHÁP DẠY MẠNG 11
III.1. Luật học sữa lỗi 11
III.2. Luật học Hebbian 11
III.3. Luật học cạnh tranh 13
III.4. Giải thuật học Delta 13
III.5. Giải thuật học Delta tổng quát 16
III.6. Các mạng nuôi tiến và giải thuật truyền ngược 19
V. KHÁI QUÁT MỘT SỐ MẠNG NEURAL NHÂN TẠO 22
V.1. Mạng Maccalox 22
V.2. Mạng Perceptron 23
V.3. Mạng Multilayer Perceptrons 24
V.4. Mạng Hopfield 27
V.5. Mạng Hemmin 28
V.6. Mạng Functional Link Net 28
VI. CÁC ỨNG DỤNG CỦA MẠNG NEURAL 29
Chương II: DỰ BÁO VÀ CÁC PHƯƠNG PHÁP DỰ BÁO
I. KHÁI NIỆM CHUNG 31
II. CÁC PHƯƠNG PHÁP DỰ BÁO NHU CẦU ĐIỆN NĂNG 32
II.1. Phương pháp bình phương cực tiểu 32
II.1.1 Khái niệm chung 32
II.1.2. Các biểu thức toán học để xác định các hệ số của mô hình dự báo 33
II.2. Phương pháp tính hệ số vượt trước 35
II.3. Phương pháp tính trực tiếp 35
II.4. Phương pháp so sánh đối chiếu 36
II.5. Phương pháp chuyên gia 36
II.6. Phương pháp san bằng hàm mũ 36
II.7. Phương pháp ngoại suy theo thời gian 39
II.8. Phương pháp tương quan 41
III. KẾT QUẢ DỰ BÁO THEO PHƯƠNG PHÁP SAN BẰNG HÀM MŨ 42
Chương III: THIẾT KẾ MẠNG NEURAL ỨNG DỤNG VÀO DỰ BÁO
I. LỰA CHỌN VÀ PHÂN TÍCH DỮ LIỆU ĐẦU VÀO 47
I.1 Phương pháp chuỗi thời gian 47
I.2 Phương pháp tương quan 50
II. MẠNG NEURAL VÀ GIẢI THUẬT BACKPROPAGATION 52
II.1. Mạng Neural 52
II.2. Giải thuật BackPropagation 53
III. TRÌNH TỰ THIẾT KẾ 55
Chương IV: GIỚI THIỆU CHƯƠNG TRÌNH NEURAL NETWORK
I. NHẬP DỮ LIỆU 58
I.1. Cấu trúc mạng 59
I.2. Dữ liệu đầu vào 60
I.3. Dữ liệu đầu ra 62
I.4. Trọng số và Bias 62
I.5. Hàm truyền 63
II. HUẤN LUYỆN MẠNG 65
III. KẾT QUẢ HUẤN LUYỆN VÀ QUÁ TRÌNH DỰ BÁO 66
III.1. Kết quả huấn luyện 66
III.2. Dự báo 70
III.2.1. Dự báo với thông số vừa huấn luyện 70
III.2.2. Dự báo với thông số có sẵn 71
III.2.3. Cập nhật dữ liệu 72
IV. KẾT QUẢ DỰ BÁO ỨNG VỚI NHỮNG THÔNG SỐ MẠNG KHÁC NHAU 73
V. KẾT LUẬN 74
Phụ lục1: CODE CHƯƠNG TRÌNH 76
Phụ lục 2:SỐ LIỆU VÀ KẾT QUẢ DỰ BÁO 120
Tài Liệu Tham Khảo
http://cloud.liketly.com/flash/edoc/jh2i1fkjb33wa7b577g9lou48iyvfkz6-swf-2013-12-27-luan_van_thiet_ke_luoi_dia_chinh_do_ve_ban_do_dia.FDImDXLQ30.swf /tai-lieu/de-tai-ung-dung-tren-liketly-50355/
Để tải bản Đầy Đủ của tài liệu, xin Trả lời bài viết này, Mods sẽ gửi Link download cho bạn sớm nhất qua hòm tin nhắn.
Ai cần download tài liệu gì mà không tìm thấy ở đây, thì đăng yêu cầu down tại đây nhé:
Nhận download tài liệu miễn phí
Tóm tắt nội dung tài liệu:
gian dạy mạng và được xác định bởi:- Đặc tính của bài toán (tuyến tính, phi tuyến, liên tục, gián đoạn..)
- Thuận lợi cho việc ứng dụng máy tính.
- Thuật toán dạy mạng.
+ Lớp (layer): Mạng Neural có thể có một hay nhiều lớp. Lớp đầu vào gọi là input layer, lớp cuối cùng có giá trị đầu ra là output thì gọi là output layer (lớp output). Các lớp còn lại gọi là hidden layer (lớp ẩn).
+Khái niệm dạy mạng: là quá trình làm thay đổi các thông số trong mạng (trọng số, Bias) cho phù hợp với kích thích bên ngoài, sau đó chúng lưu giữ các giá trị này. Cách dạy được xác định thông qua cách thức thay đổi thông số.
Đó là:
-Mạng Neural được kích thích bởi đầu vào .
- Mạng Neural thay dổi các thông số theo kết quả kích thích.
- Mạng Neural phản ứng lại một kích thích mới bằng những thay đổi tìm thấy trong cấu trúc mạng.
II.2. Phân loại mạng Neural
II.2.1 Phân loại theo cấu trúc:
Mô hình kết nối của các mạng Neural nhân tạo dựa vào cấu trúc có thể được chia ra làm hai loại: Mạng nuôi tiến và mạng nuôi lùi.
Mạng feedforward :
Hình 1.12
Các Neural tạo thành nhóm trong các lớp , tín hiệu truyền từ lớp input đến lớp ouput . Các Neural không cùng lớp thì nối với nhau nhưng các Neural cùng lớp thì không nối với nhau . Ví dụ như mạng perceptron nhiều lớp , mạng chuẩn hoá vecto học hỏi , mạng điều khiển phát âm và mạng lưu trữ dữ liệu .
Mạng recurrent :
hình 1.13
Các đầu ra của một số Neural hồi tiếp lại chính nó hay các Neural ở các lớp kế cận. Mạng recurrent có bộ nhớ động , ngõ ra của nó phản ánh input hiện hành như các input và output trước đó . Ví dụ như mạng Hopfied, mạng Elman, mạng Jordan.
II.2.2 Phân loại theo phương pháp dạy:
1.Mạng học hỏi có giám sát
Đầu ra thực tế y
Mạng
Neural
w
Đầu vào x
đầu ra mong muốn d
Sai số
Hình 1.14 Mô hình mạng huấn luyện có giám sát
Thuật toán này dùng để điều chỉnh sự khác nhau giữa các output thực tế và output yêu cầu tương ứng từng mẫu đưa vào. Ví dụ như qui tắc delta do Windrow và Hoff đưa ra vào năm 1960, thuật toán giải thuật lan truyền ngược (backpropagation) do Rumelhart và Mc Clellan đưa ra năm 1986, thuật toán vecto học hỏi do Kohonen đưa ra năm 1989.
2.Mạng học hỏi không giám sát
Mạng Neural
w
Hình 1.15 Mô hình huấn luyện không giám sát
Thuật toán này không đòi hỏi cần biết trước ngõ ra yêu cầu. Trong quá trình huấn luyện các mẫu nhập đưa vào mạng và thuật toán tự điều chỉnh các trọng số kết nối, các mẫu nhập có đặc điểm tương tự sẽ ở trong cùng một lớp. Ví dụ như thuật toán học hỏi cạnh tranh ATR của Carpenter và Grossberg đưa ra vào năm 1988.
đầu vào x đầu ra thực tế y
3.Mạng học hỏi có điều chỉnh
Thuật toán học hỏi có điều chỉnh sử dụng tiêu chuẩn đánh giá các đặc điểm tốt của output mạng tương ứng và input đưa vào. Ví dụ như thuật toán Gen do Holland đưa ra năm 1975.
Mạng
Neural
Hình 1.16 Mô hình huấn luyện có điều chỉnh
Đầu vào x Đầu ra thực tế y
Tín hiệu
Hồi tiếp
tín hiệu tăng cường
II.3 Cấu trúc mạng Neural
II.3.1. Mạng Neural có một lớp : Bao gồm các phần tử xử lý trên cùng mức.
S
f
S
f
S
f
Hình 1.17 Mạng Neural nuôi tiến một lớp
w1,1 a1
p1
b1
p2
a2
p3
b2
wS,R aS
pR
bS
Trong đó:
- pi: Dữ liệu đầu vào.
- a = f(wp + b) (1.3)
- R :số lượng vecto đầu vào
- S : số lượng Neural trong một lớp
Trong mạng này, mỗi đầu vào p được nối với mỗi Neural thông qua ma trận trọng số W. Mỗi Neural có một bộ tổng để cộng các trọng số và bias. Kết quả của chúng là đầu vào của hàm f.
Thường thì số vecto đầu vào khác với số Neural (R¹S). Trong mạng không bắt buộc số đầu vào bằng số Neural (R=S).
Ma trận trọng số w
Chỉ số hàng trong ma trận cho biết nơi đến Neural và chỉ số cột cho biết nơi bắt đầu xuất phát từ input của trọng số .
Ví du: W1,2 cho biết trọng số xuất phát từ input thứ 2 và kết thúc ở Neural thứ 1.
Tín hiệu hồi tiếp
Hình 1.18 Mạng Neural nuôi lùi một lớp
S
f
S
f
S
f
a1
p1
b1
p2
b2 a2
pR aS
b3
II.3.2. Mạng Neural nhiều lớp
Trong mạng Neural có thể có nhiều lớp. Mỗi lớp có một ma trận trọng số w và một bias b, và một output a. Lớp Neural đầu tiên gọi là lớp đầu vào, lớp Neural cuối là lớp đầu ra, các lơp Neural giữa hai lớp đầu vào và đầu ra gọi là lớp ẩn. Trong mạng Neural một lớp, chỉ có một lớp đầu vào, một lớp đầu ra và một lớp ẩn. Để phân biệt các giá trị này trong các lớp ta dùng các chỉ số như hình vẽ bên dưới.
S
f
S
f
S
f
S
f
S
f
S
f
S
f
S
f
S
f
P1 a1,1 a1,2 a1,n
b1,1 b1,1 b1,n
P2 a2,1 a2,2 a2,n
b2,1 b2,1 b2,n
Pr ar,1 ar,2 ar,n
br,1 br,1 br,n
Hình 1.19 Mạng Neural nuôi tiến nhiều lớp
Input layer
Hidden layer
Output layer
S
f
S
f
S
f
S
f
S
f
S
f
S
f
S
f
S
f
P1 a1,1 a1,2 a1,n
b1,1 b1,2 b1,n
P2 a2,1 a2,2 a2,n
b2,1 b2,2 b2,n
Pr ar,1 ar,2 ar,n
br,1 br,2 br,n
Hình 1.20 Mạng Neural nuôi lùi nhiều lớp
Lớp cuối cùng có giá trị đầu ra là output thì gọi là output layer, lớp đầu
vào (input) gọi là input layer. Các lớp còn lại gọi là hidden layer (lớp ẩn). Một
vài tác giả thì cho rằng input là lớp thứ 4.
III. LUẬT HỌC VÀ CÁC PHƯƠNG PHÁP DẠY MẠNG
Học là quá trình làm thay đổi các thông số trong mạng (trọng số) cho phù hợp với kích thích bên ngoài, sau đó chúng lưu giữ các giá trị này. Cách học hỏi được xác định thông qua cách thức thay đổi thông số.
Định nghĩa của việc học bao hàm các ý sau:
- Mạng Neural được kích thích bởi đầu vào.
- Mạng Neural thay đổi các trọng số theo kết quả kích thích.
- Mạng Neural phản ứng lại một kích thích mới bằng những thay đổi tìm thấy trong cấu trúc mạng.
Có nhiều cách học trong mạng nhưng ở đây chỉ đề cập một số luật học chủ yếu:
III.1. Luật học sửa lỗi (Error-Correction Learning)
- Gọi dk là giá trị đầu ra mong muốn của Neural thứ k.
- yk là giá trị đầu ra thực.
- ek là sai số của Neural thứ k.
Ta có công thức tính sai số ở lần thứ n:
ek(n) = dk(n) – yk(n) (1.4)
Tổng sai số trong mạng:
E= (1.5)
Giá trị trọng số thay đổi như sau :
(1.6)
Với Dwkj(n) = hek(n)xj(n) (1.7)
Trong đó: h là tốc độ dạy (là một hằng số)
x là giá trị đầu vào (input)
III.2. Luật Hebbian (Hebbian Learning)
Định luật Hebb: Gia tăng trọng số của kích thích nếu muốn đầu ra của Neural tác động đối với kích thích. Ngược lại, giảm trọng số của kích thích nếu không muốn đầu ra của Neural tác động đối với kích thích đó.
Donald Hebb đã đề xuất sơ đồ học tập để cập nhật các liên kết nút mà ngày nay chúng ta gọi là qui tắc huấn luyện Hebb. Mỗi khi một Neural được kích hoạt lặp đi lặp lại bởi một Neural khác, ngưỡng kích hoạt của Neural thứ hai giảm đi, do đĩ sự truyền đạt giữa 2 Neural này được dễ dàng bởi sự kích hoạt lặp lại.
Một đặc tính quan trọng của qui tắc này là việc huấn luyện được thực hiện một cách cục bộ, tức là sự thay đổi trọng số kết nối giữa hai Neural chỉ phụ thuộc vào hoạt động của 2 Neural đĩ.
Ý tưởng này cĩ thể mở rộng cho các hệ thống nhân tạo. Cĩ nhiều cơng thức tốn học khác nhau để diễn tả qui tắc Hebb. Cơng thức sau đây được sử dụng phổ biến nhất. Theo qui tắc Hebb, khi cĩ s...