Nhờ anh em đánh giá 3 bài báo học máy đăng ở hội nghị lớn này

minaminoJ

Phó thường dân
Đợt này mình có 3 bài báo được chấp nhận tại các hội nghị về AI và học máy là #ICLR#AISTATS lần lượt được tổ chức ở Singapore
🇸🇬
và Thái Lan
🇹🇭
.
Chủ đề các bài báo này xoay quanh mô hình Mixture of Experts (#MoE) và ứng dụng của nó trong language models và các phương pháp parameter-efficient fine-tuning. Tuy nhiên, do không thể tham dự hội nghị lần này nên mình chia sẻ posters cũng như link đến các bài báo để mọi người tham khảo.
[ICLR] Statistical Advantages of Perturbing Cosine Router in Mixture of Experts: https://arxiv.org/abs/2405.14131
[ICLR] Revisiting Prefix-tuning: Statistical Benefits of Reparameterization among Prompts: https://arxiv.org/abs/2410.02200
[AISTATS] Understanding Expert Structures on Minimax Parameter Estimation in Contaminated Mixture of Experts:
https://arxiv.org/abs/2410.12258
 
Top