nerd-data
  • Home
  • About
Sign in Subscribe

neural networks

ปัญหาของ Deep Learning: Vanishing vs Exploding Gradients

ปัญหาของ Deep Learning: Vanishing vs Exploding Gradients

Vanishing and Exploding Gradients เป็นปัญหาที่พบบ่อยตอนฝึก (train) Neural Networks (NN) โดยเฉพาะ Deep NN และ RNN ดังนี้ 1. Vanishing Gradient คือ Gradient มีค่าน้อยมาก ๆ ใกล้ศูนย์ → น้ำหนักชั้นต้น ๆ แทบไม่ถูกอัปเดต → โมเดล “เรียนไม่ไป” เกิ
Narut Soontranon Jan 21, 2026
Backpropagation คืออะไร ทำไม Neural Network ถึงฉลาดขึ้น

Backpropagation คืออะไร ทำไม Neural Network ถึงฉลาดขึ้น

Backpropagation คือวิธีที่โมเดล Neural Network ใช้ เรียนรู้จากความผิดพลาดของตัวเอง แบบเป็นขั้นตอน แนวคิด ทำนาย → วัดว่าผิดแค่ไหน → ย้อนกลับไปแก้ค่าน้ำหนัก ขั้นตอน 1) Forward pass (ทำนายก่อน) * ป้อนข้อมูลเข้า Neural Network * ข้อมูลไหลจากซ้าย
Narut Soontranon Jan 20, 2026

Subscribe to nerd-data

Don't miss out on the latest news. Sign up now to get access to the library of members-only articles.
  • Sign up
nerd-data © 2026. Powered by Ghost