Positional encoding giúp biểu diễn vị trí của mỗi token trong câu thông qua vector tương ứng. Đối với các mô hình như RNNs, thông tin vị trí được capture thông qua hidden states trước đó. Transformer xử lý mỗi token song song nên cần thông tin vị trí rõ ràng. Vector positional encoding có cùng kích thước với vector embedding. Mỗi token sẽ có vector positional encoding riêng, phụ thuộc vào vị trí của nó trong câu.
- Positional encoding là một đặc điểm quan trọng trong kiến trúc transformer.
- Positional encoding giúp biểu diễn vị trí của mỗi token trong câu thông qua vector tương ứng.
- Đối với các mô hình như RNNs, thông tin vị trí được capture thông qua hidden states trước đó.
- Transformer xử lý mỗi token song song nên cần thông tin vị trí rõ ràng.
- Vector positional encoding có cùng kích thước với vector embedding.
- Mỗi token sẽ có vector positional encoding riêng, phụ thuộc vào vị trí của nó trong câu.
Các giá trị định lượng và tên của các lí thuyết:
Recurrent Neural Networks (RNNs):
Ưu điểm:
- Capture được thông tin vị trí thông qua hidden states.
Nhược điểm:
- Xử lý tuần tự, không hiệu quả với các dữ liệu lớn.
- Dễ gặp vấn đề vanishing gradient hoặc exploding gradient.
Minh chứng: Thực nghiệm với các bộ dữ liệu lớn cho thấy RNNs gặp khó khăn khi xử lý dữ liệu dài.
Transformers:
Ưu điểm:
- Xử lý song song, hiệu quả với dữ liệu lớn.
- Không gặp vấn đề vanishing hoặc exploding gradient nhờ vào attention mechanism.
Nhược điểm:
- Cần thông tin vị trí rõ ràng qua positional encoding.
- Yêu cầu nhiều tài nguyên tính toán.
- Minh chứng: Thực nghiệm cho thấy transformer hiệu quả hơn RNNs trên các tập dữ liệu lớn và dài.
Positional encoding:
Transformer:
Sức mạnh:
Vị trí token:
Biểu diễn chính xác:
Xử lý tuần tự:
Mô hình học máy:
Mô hình transformer:
Cơ chế attention:
Hiệu quả của mô hình: