Euclidean distance là gì

     

Phân loại

Lý thuyết học sản phẩm (31)Quy hoạch lồi (13)Thuật toán (6)

Lưu trữ

Thống kê

221668 lần xem

Bài cách đây không lâu

Trang

Blogroll

Quản trị


Theo dõi

*
Blog D.Q. Huy

Xem những nhất


Các có mang trong Học đồ vật (Machine Learning) (7) – một số trong những vídụ

Posted by nai lưng Quốc Long trên mon Bảy 30, 2008


Ước lượng thông số của triển lẵm chuẩn (normal distribution): Ở bài bác thứ 3, ta đang thấy một ví dụ thực hiện công thức Bayes để ước lượng xác suất của tham số. Trong lấy một ví dụ này, ta sẽ thử thực hiện nguyên tắc cực đại hóa khả năng (maximum likelihood estimation – MLE) để cầu lượng tham số.

Bạn đang xem: Euclidean distance là gì

Ví dụ 1. giả sử tài liệu

*
được mang từ phân phối chuẩn chỉnh
*
. Hãy xác định
*
.

Giải: quý giá của

*
phải cực đại hóa khả năng (likelihood) của dữ liệu

*

Lấy logarit cơ số tự nhiên và thoải mái cả nhị vế và vứt bỏ đi hằng số, việc cực to hóa

*
tương đương với việc cực lớn hóa hàm log-likelihood sau

*

Lấy đạo hàm

*
và đặt bởi
*
rồi giải ra ta được mong lượng MLE của
*

*

Ví dụ 2. trả sử dữ liệu

*
được mang từ phân phối chuẩn chỉnh
*
. Hãy xác minh
*
.

Xem thêm: Sinh Năm 2017 Là Năm Con Gì Mệnh Gì? Hợp Với Tuổi Nào Hướng Nào? ?

Giải: tương tự như bên trên hàm log-likelihood là:

*

Đầu tiên, cực lớn hóa

*
theo
*
, ta được

*

*

Tiếp tục cực đại hóa

*
theo
*
ta có

*

*

Lưu ý:

Qua 2 lấy ví dụ như trên, ta thấy
*
khẳng định qua nguyên tắc cực to hóa khả năng đó là các đại lượng trung bình cộng của dữ liệu và trung bình thường phương không đúng số.Đối với tài liệu nhiều chiều,
*
, với phương pháp làm tương tự (có phức tạp hơn 1 chút), ta cũng có thể tính được

*
*
Ví dụ 3. giả sử tất cả hai lớp đối tượng người dùng
*
, ta biết rằng

*

*

Nghĩa là phân bổ của hai lớp đối tượng người tiêu dùng đều là cung cấp chuẩn, tất cả phương sai như là nhau. Đồng thời đưa sử

*
. Hãy xây dựng biện pháp phân lớp tối ưu và cầu lượng tỷ lệ lỗi.

Giải:

*
đề xuất luật phân lớp buổi tối ưu là

*

*

Lấy logarith cơ số thoải mái và tự nhiên cả nhì vế của bất đẳng thức rồi sa thải hằng số tầm thường ta được

*

*

Tức là nếu như

*
ở ngay sát
*
hơn thì sẽ được phân vào lớp
*
với ngược lại. Hoặc ví như
*

Do

*
cùng tính đối xứng của những phân bố ta có

*

Trong kia

*
hàm phân bố xác suất (cummulative distribution function) của phân bố chuẩn
*
.

Ví dụ 4.

Xem thêm: Ăn Gì Đây Nhaccuatui - Lời Bài Hát Ăn Gì Đây Remix

Xét trường hợp bao quát hơn

*

*

*

Điều kiện để phân

*
vào lớp
*

*

Lấy logarit cơ số tự nhiên cả 2 vế, ta có

*
*

Như vậy, nghỉ ngơi trường đúng theo phân phối chuẩn chỉnh tổng quát, con đường phân nhãi giới tối ưu thân 2 lớp là một trong những đường cong bậc 2. Nó có thể là con đường thẳng, elipsoid, hyperbol xuất xắc parabol tùy ở trong vào

*
với
*
. Ta xét một trong những trường hợp đơn giản:

Lưu ý:

Do ma trận
*
là ma trận xác định dương nên hay thấy các tính chất sau

*
*
*
*
(bất đẳng thức tam giác)

Tức là khoảng cách Mahalanobis thỏa mãn các tính chất cần phải có của khoảng cách vào không gian metric.
Posted in định hướng học thiết bị | Thẻ: cực lớn hóa khả năng, CDF, cummulative distribution function, Euclidean distance, generalization error, khoảng cách Euclid, khoảng cách Mahalanobis, LDA, linear discriminant analysis, log-likelihood, Mahalanobis distance, maximum likelihood estimation, MLE, phân bố xác suất, phân cách 2 lớp bằng siêu phẳng, tư vấn Vector Machines, SVM, vectơ hỗ trợ, xác suất lỗi, ước lượng thông số | Leave a comment »