Trong toán học phổ thông, chúng ta thường làm quen với khái niệm hàm số như một quy tắc xác định duy nhất: với mỗi đầu vào , ta luôn thu được một đầu ra cố định. Tuy nhiên, khi bước vào thế giới dữ liệu thực (Real-world data), quy tắc này hoàn toàn bị phá vỡ.
Hãy tưởng tượng bạn đang xây dựng một mô hình ANN để dự báo giá nhà. Hai căn nhà có cùng diện tích, cùng vị trí, cùng số phòng (chung đầu vào ) nhưng giá bán thực tế () vẫn có sự chênh lệch đáng kể. Tại sao? Bởi vì luôn có những yếu tố mà mô hình không thể quan sát hết (noise), hoặc bản thân quy trình thu thập dữ liệu tồn tại sai số.
Nếu chúng ta ép mạng ANN phải "khớp" (fit) chính xác từng điểm dữ liệu, chúng ta đang vô tình bắt nó học cả những sai số ngẫu nhiên đó – dẫn đến hiện tượng Overfitting.
Thay đổi lăng kính: Thay vì coi ANN là một "cỗ máy tính toán giá trị", hãy coi nó là một bộ ước lượng tham số (Parameter Estimator). Thay vì dự đoán , mạng ANN sẽ dự đoán các đặc trưng của một phân phối xác suất . Ở góc nhìn này, chúng ta không chỉ đi tìm một con số, mà chúng ta đi tìm "vùng không gian" mà giá trị thực có khả năng rơi vào cao nhất.
Để chuyển đổi bài toán Hồi quy (Regression) sang ngôn ngữ xác suất, chúng ta cần đặt ra các giả định về bản chất của dữ liệu.
1. Giả định về nhiễu Gauss (Gaussian Noise)
Chúng ta giả định rằng mối quan hệ giữa đầu vào và mục tiêu bị chi phối bởi một hàm số lý tưởng nhưng bị che phủ bởi một thành phần nhiễu :
Trong đó, được gọi là nhiễu trắng và tuân theo Phân phối chuẩn (Gaussian Distribution) với kỳ vọng bằng và phương sai :
Tại sao lại là Phân phối chuẩn? Theo Định lý giới hạn trung tâm (Central Limit Theorem), tổng của nhiều tác động nhiễu nhỏ, độc lập khác nhau thường sẽ hội tụ về phân phối chuẩn. Đây là giả định thực tế và mạnh mẽ nhất trong thống kê.
Từ giả định trên, ta có thể suy ra biến mục tiêu cũng là một biến ngẫu nhiên tuân theo phân phối chuẩn, nhưng có tâm (kỳ vọng) dịch chuyển về phía đầu ra của mạng ANN:
Điều này có nghĩa là: Với mỗi giá trị , xác suất để thu được sẽ cao nhất tại điểm và giảm dần khi đi xa khỏi điểm đó theo hình chuông.
2. Ý nghĩa của Feedforward trong xác suất
Trong cấu trúc mạng ANN, quá trình Feedforward (Lan truyền xuôi) thường được hiểu là việc nhân ma trận và đi qua hàm kích hoạt. Nhưng dưới góc nhìn xác suất, đây là quá trình chiết tách đặc trưng để ước lượng tham số phân phối.
Các tầng ẩn (Hidden Layers): Đóng vai trò như các bộ lọc, biến đổi dữ liệu thô thành các không gian đặc trưng (feature space) mang tính đại diện cao.
Tầng đầu ra (Output Layer): Trong bài toán Regression truyền thống, tầng này thường chỉ có 1 node duy nhất. Node này không đại diện cho giá trị cuối cùng, mà nó đại diện cho kỳ vọng của phân phối .
Nói cách khác, mạng ANN đang thực hiện một nhiệm vụ: Dự đoán xem "trọng tâm" của đám mây xác suất nằm ở đâu dựa trên những gì nó đã quan sát được từ .
Trong học máy, chúng ta thường chấp nhận hàm mất mát Mean Squared Error (MSE) như một tiêu chuẩn mặc định cho bài toán hồi quy. Tuy nhiên, dưới góc độ xác suất, MSE không phải là một công thức ngẫu nhiên; nó là hệ quả trực tiếp của việc Cực đại hóa hàm hợp lý (Maximum Likelihood Estimation - MLE) dưới giả định nhiễu Gauss.
1. Thiết lập hàm Hợp lý (Likelihood Function)
Giả sử chúng ta có một tập dữ liệu huấn luyện . Giả định rằng các mẫu dữ liệu này là độc lập và cùng phân phối (i.i.d).
Mục tiêu của chúng ta là tìm bộ trọng số sao cho xác suất xảy ra của toàn bộ tập dữ liệu thực tế là cao nhất. Xác suất này được biểu diễn qua hàm Hợp lý :
Vì các mẫu là độc lập, xác suất của một tích bằng tích các xác suất:
Thay phân phối chuẩn mà chúng ta đã thiết lập ở phần II vào, ta có:
2. Từ Likelihood đến Log-Likelihood
Việc tối ưu hóa một tích các hàm mũ là rất khó khăn về mặt tính toán (dễ gây ra lỗi tràn số dưới - underflow). Do đó, chúng ta áp dụng hàm (logarit tự nhiên) vào cả hai vế. Vì là hàm đồng biến, việc tìm để cực đại hóa cũng tương đương với việc cực đại hóa :
Sử dụng tính chất và , ta khai triển được:
3. Cầu nối MLE MSE
Để tìm tối ưu, chúng ta thực hiện bài toán cực đại hóa . Tuy nhiên, trong Deep Learning, chúng ta thường làm việc với bài toán tối thiểu hóa hàm mất mát (Loss function). Vì vậy, ta đặt hàm mất mát là Negative Log-Likelihood (NLL):
Khi tối ưu hóa theo , các thành phần hằng số và hệ số mẫu số (giả định phương sai không đổi) không làm thay đổi vị trí của điểm cực tiểu. Do đó, bài toán thu gọn thành:
Đây chính là tổng bình phương các sai số. Nếu ta chia cho để lấy giá trị trung bình, ta thu được công thức MSE kinh điển:
Kết luận rút ra: Khi bạn chọn MSE làm hàm mất mát cho mạng ANN, bạn không chỉ đang thực hiện một phép tính hình học (đo khoảng cách). Về mặt bản chất, bạn đang thực hiện một phép suy diễn thống kê mạnh mẽ: Bạn đang đi tìm bộ trọng số có khả năng giải thích dữ liệu cao nhất dưới giả định rằng thế giới này bị nhiễu bởi phân phối Gauss.
Sau khi đã xác định được mục tiêu là tối thiểu hóa hàm thất thoát (Loss function), câu hỏi tiếp theo là: Làm thế nào để mạng ANN "học" được bộ trọng số đó, và làm sao để kiểm soát nó không đi quá xa khỏi thực tế? Nếu toán học MLE là "kim chỉ nam", thì Feedforward và Backpropagation chính là "đôi chân" giúp mạng ANN di chuyển đến đích.
1. Feedforward: Quá trình lan truyền tham số
Feedforward không chỉ là việc nhân ma trận, mà là quá trình biến đổi dữ liệu thô qua nhiều cấp độ trừu tượng để ước lượng tham số của phân phối .
Giả sử mạng có lớp. Tại mỗi lớp :
Kết hợp tuyến tính: Các đặc trưng từ lớp trước được tổng hợp: . Ở góc nhìn xác suất, đây là cách mạng tạo ra các tổ hợp các biến ngẫu nhiên.
Kích hoạt phi tuyến: . Hàm kích hoạt (như ReLU hay Sigmoid) đóng vai trò bóp méo không gian để mô hình hóa các mối quan hệ phức tạp, không thẳng hàng trong dữ liệu.
Lớp đầu ra (Output Layer): Tại lớp cuối cùng , ta thu được giá trị . Như đã chứng minh ở phần III, giá trị này chính là (kỳ vọng) của phân phối Gauss mà chúng ta đang tìm kiếm.
2. Backpropagation: Cơ chế "sửa lỗi" theo độ dốc xác suất
Backpropagation là thuật toán cốt lõi để tìm ra bộ trọng số tối ưu nhất. Thay vì thử sai ngẫu nhiên, mạng sử dụng đạo hàm để biết cần điều chỉnh trọng số theo hướng nào.
Quy trình diễn ra theo 3 bước:
Bước 1: Tính toán sai số (The Error Signal):
Dựa trên hàm mất mát (chính là NLL hay MSE), ta tính toán sự sai khác giữa dự đoán và giá trị thực .
Bước 2: Lan truyền ngược sai số:
Sử dụng Quy tắc chuỗi (Chain Rule), sai số từ lớp đầu ra được "phân phối" ngược lại từng node ở các lớp trước đó. Chúng ta tính toán xem mỗi trọng số đã "đóng góp" bao nhiêu vào lỗi tổng thể:
Bước 3: Cập nhật trọng số (Gradient Descent):
Sau khi biết hướng làm giảm sai số (ngược chiều Gradient), các trọng số được cập nhật:
(Trong đó là Learning Rate - tốc độ học).
3. Regularization: Đưa "niềm tin" vào mô hình (Bayesian Prior)
Một vấn đề lớn của MLE là nó có xu hướng "học vẹt" (Overfitting) nếu dữ liệu quá ít hoặc mô hình quá phức tạp. Để khắc phục, chúng ta sử dụng Regularization (Điều chuẩn). Trong xác suất, đây chính là việc chuyển từ MLE sang MAP (Maximum A Posteriori).
Thay vì chỉ tối ưu hóa (Likelihood), chúng ta tối ưu hóa xác suất của trọng số sau khi đã quan sát dữ liệu (Bayesian):
Trong đó, là Xác suất tiên nghiệm (Prior) — niềm tin của chúng ta về bộ trọng số trước khi nhìn thấy bất kỳ dữ liệu nào.
Chúng ta giả định rằng mỗi thành phần trọng số trong bộ trọng số là độc lập và tuân theo phân phối chuẩn với kỳ vọng bằng (nghĩa là chúng ta tin rằng mặc định các trọng số nên nhỏ và bằng trừ khi dữ liệu chứng minh ngược lại) và phương sai :
Hàm mật độ xác suất cho toàn bộ vector trọng số (gồm phần tử) sẽ là tích của từng thành phần:
Sử dụng tính chất của hàm mũ để gộp tích thành tổng:
Để tối ưu hóa, chúng ta lấy logarit tự nhiên của xác suất hậu nghiệm. Ta tập trung vào phần Prior trong biểu thức :
Áp dụng quy tắc :
Sử dụng tính chất và nhận định rằng chính là bình phương chuẩn bậc hai của vector , ký hiệu là :
Trong các bài toán tối ưu hóa, ta thường tối thiểu hóa giá trị âm của Log-Posterior. Khi đó, phần đóng góp của Prior vào hàm mất mát sẽ là:
Khi kết hợp với phần Likelihood (đã chứng minh ở phần III là MSE), hàm mất mát toàn phần trở thành:
Nếu ta đặt (tỉ lệ giữa phương sai của nhiễu dữ liệu và phương sai của niềm tin tiên nghiệm), ta có công thức chính xác của L2 Regularization:
Ý nghĩa trực quan:
Nếu rất nhỏ: Niềm tin của chúng ta rất mạnh rằng trọng số phải bằng . Điều này dẫn đến rất lớn, mạng sẽ bị phạt nặng nếu trọng số lệch khỏi .
Nếu rất lớn: Chúng ta "thả lỏng", cho phép trọng số tự do hơn. Điều này dẫn đến nhỏ, mô hình sẽ phụ thuộc hoàn toàn vào dữ liệu (MLE).
Đúc kết: L2 Regularization thực chất là một "bộ lọc" xác suất, ngăn không cho mô hình gán quá nhiều tầm quan trọng cho bất kỳ một đặc trưng nào, ép mạng ANN phải duy trì một sự "khiêm tốn" nhất định trước dữ liệu.
L1 Regularization: Khi "niềm tin" tuân theo Phân phối Laplace
Nếu L2 giả định trọng số tuân theo phân phối chuẩn (Gaussian), thì L1 Regularization (hay Lasso) lại xuất phát từ một giả định khác: Trọng số tuân theo Phân phối Laplace.
Phân phối Laplace có hàm mật độ xác suất nhọn hơn nhiều tại điểm 0 so với phân phối chuẩn. Giả định , ta có:
Trong đó là tham số tỉ lệ (scale parameter).
Đối với toàn bộ vector trọng số :
Tương tự như cách làm với L2, ta lấy logarit tự nhiên của xác suất tiên nghiệm này:
Khi chuyển sang bài toán tối thiểu hóa hàm mất mát (Negative Log-Posterior), phần đóng góp của Prior sẽ là:
Trong đó chính là chuẩn bậc một (L1-norm).
Sự khác biệt bản chất:
Việc hiểu dưới góc nhìn xác suất giúp ta giải thích L1 một cách trực quan:
Hình dáng của niềm tin: Phân phối Laplace có một "đỉnh" rất nhọn ngay tại điểm . Về mặt xác suất, điều này thể hiện một niềm tin cực kỳ mạnh mẽ rằng: Phần lớn các trọng số thực sự nên bằng .
Cơ chế triệt tiêu: Trong khi đạo hàm của L2 () tiến về khi nhỏ dần (khiến tốc độ giảm chậm lại và khó chạm mức ), thì đạo hàm của L1 () luôn là một hằng số (). Điều này tạo ra một "áp lực" không đổi đẩy trọng số về đúng bằng .
Trong các ứng dụng truyền thống, mạng ANN chỉ trả về một con số duy nhất (point estimate). Tuy nhiên, trong các lĩnh vực rủi ro cao như y tế hay xe tự lái, việc biết mô hình đang tự tin hay đang đoán mò còn quan trọng hơn bản thân giá trị dự báo. Góc nhìn xác suất mở ra cánh cửa để chúng ta ước lượng Sự bất định (Uncertainty).
Sự bất định trong bài toán Regression thường được chia làm hai loại:
Aleatoric Uncertainty (Bất định do dữ liệu): Xảy ra khi dữ liệu đầu vào vốn dĩ đã nhiễu hoặc chồng lấn (ví dụ: ảnh bị mờ). Để học được điều này, thay vì chỉ dự đoán , chúng ta thiết kế mạng ANN có hai đầu ra: một cho và một cho phương sai . Khi mạng đối mặt với vùng dữ liệu nhiễu, nó sẽ tự động đẩy lên cao như một tín hiệu cảnh báo.
Epistemic Uncertainty (Bất định do mô hình): Xảy ra khi chúng ta thiếu dữ liệu huấn luyện ở một vùng không gian nào đó. Để xử lý loại này, chúng ta cần đến Bayesian Neural Networks, nơi mà mỗi trọng số không phải là một con số mà là một phân phối điểm.
Việc nắm bắt được sự bất định giúp mô hình không chỉ đưa ra dự báo mà còn đưa ra một khoảng tin cậy (Confidence Interval), giúp người dùng đưa ra quyết định an toàn hơn.
Đi từ những giả định đơn giản về nhiễu Gauss đến việc tối ưu hóa hàm Log-Likelihood, chúng ta nhận ra rằng mạng ANN cho bài toán Regression không đơn thuần là một công cụ giải thuật toán. Nó là một thực thể thống kê đang thực hiện phép Suy diễn (Inference).
Tóm lại, những điểm cốt lõi bạn cần nhớ từ góc nhìn này là:
MSE không phải là mặc định: Nó là hệ quả của giả định nhiễu Gauss. Nếu dữ liệu của bạn có nhiễu khác (như nhiễu Laplace), hãy cân nhắc dùng MAE.
Regularization là "Niềm tin": L2 hay L1 không chỉ để chống overfitting, chúng là cách bạn đưa tri thức hoặc kinh nghiệm tiên nghiệm (Prior) vào để định hướng cho mô hình.
ANN là bộ ước lượng tham số: Đừng chỉ nhìn vào kết quả cuối cùng, hãy nhìn vào cách mô hình phân phối xác suất cho các khả năng có thể xảy ra.
No comments yet. Be the first to comment!