update งาน NLP กันหน่อย :D — ในบรรดา paper ด้าน NLP ทั้งหลาย ช่วงนี้คงหนีคำว่า “Transformer” ไม่พ้น
จริง ๆ ยังมีคำอื่นอีก อย่าง BERT, GPT-3 แต่เหมือน Transformer จะเป็นพื้นฐานของ model อื่น ๆ เลยต้องอ่านก่อน paper หลักคือ “Attention is all you need” โดย Vaswani et al. ปี 2017 ปรากฏว่าอ่านไปก็บ่นไปว่าเขียนไรไม่รู้เรื่องเลย ถ้าผมเป็น reviewer คงจะไล่ไปเขียนมาใหม่ 555
ตอนนี้อ่านข้าม ๆ บางส่วนก็มานั่งคิดเองต่อ ได้ข้อสรุปส่วนตัวบางอย่างเลยมาจดไว้ก่อนดีกว่า เดี๋ยวว่างๆ ค่อยไปอ่านต่อให้จบ