deep learning

CNN: จากพิกเซลสู่ความเข้าใจ

CNN: จากพิกเซลสู่ความเข้าใจ

CNN (Convolutional Neural Network) คือโมเดล Deep Learning ที่ออกแบบมาเพื่อ เข้าใจข้อมูลที่เป็นภาพ (Image) โดยเฉพาะ แต่ปัจจุบันยังนำไปใช้กับเสียง วิดีโอ และข้อมูลเชิงพื้นที่อื่น ๆ ได้ด้วย “สมองที่ค่อย ๆ มองภาพจากรายละเอียดเล็ก ไป
Narut Soontranon
ปัญหาของ Deep Learning: Vanishing vs Exploding Gradients

ปัญหาของ Deep Learning: Vanishing vs Exploding Gradients

Vanishing and Exploding Gradients เป็นปัญหาที่พบบ่อยตอนฝึก (train) Neural Networks (NN) โดยเฉพาะ Deep NN และ RNN ดังนี้ 1. Vanishing Gradient คือ Gradient มีค่าน้อยมาก ๆ ใกล้ศูนย์ → น้ำหนักชั้นต้น ๆ แทบไม่ถูกอัปเดต → โมเดล “เรียนไม่ไป” เกิ
Narut Soontranon
Backpropagation คืออะไร ทำไม Neural Network ถึงฉลาดขึ้น

Backpropagation คืออะไร ทำไม Neural Network ถึงฉลาดขึ้น

Backpropagation คือวิธีที่โมเดล Neural Network ใช้ เรียนรู้จากความผิดพลาดของตัวเอง แบบเป็นขั้นตอน แนวคิด ทำนาย → วัดว่าผิดแค่ไหน → ย้อนกลับไปแก้ค่าน้ำหนัก ขั้นตอน 1) Forward pass (ทำนายก่อน) * ป้อนข้อมูลเข้า Neural Network * ข้อมูลไหลจากซ้าย
Narut Soontranon
Generative vs Discriminative Models: เมื่อ AI ต้องสร้าง กับ ต้องตัดสิน

Generative vs Discriminative Models: เมื่อ AI ต้องสร้าง กับ ต้องตัดสิน

เปรียบเทียบระหว่าง Generative Models และ Discriminative Models 1. แนวคิด Generative Models * เรียนรู้ distribution joint ของข้อมูล P(x, y) = P(x|y)P(y) * พยายามเข้าใจว่า “ข้อมูลถูกสร้างขึ้นอย่างไร” * สามารถ generate ตัวอย่างใหม่ได้ เช่น ภาพ, ข้อความ,
Narut Soontranon
เมื่อข้อมูลเริ่มเรียนรู้: Deep Learning เบื้องต้น

เมื่อข้อมูลเริ่มเรียนรู้: Deep Learning เบื้องต้น

Deep Learning คือการสอนคอมพิวเตอร์ให้ “คิดและเรียนรู้” คล้ายสมองมนุษย์ โดยใช้โครงสร้างที่เรียกว่า Artificial Neural Network (ANN) ซึ่งเลียนแบบการทำงานของเซลล์ประสาทในสมอง จินตนาการว่า * สมองมนุษย์ มีเซลล์ประสาท (Neuron) เชื่อมต่อกันเป็นเครือข่าย * Deep Learning ก็สร้างเครือข่ายคล้ายกั
Narut Soontranon
Transformers ในงาน Data Science

Transformers ในงาน Data Science

Transformers คือ Deep Learning Model ประเภทหนึ่งที่มีความสำคัญมากในวงการวิทยาศาสตร์ข้อมูล (Data Science) โดยเฉพาะอย่างยิ่งในด้านการประมวลผลภาษาธรรมชาติ (Natural Language Processing, NLP) สิ่งที่ควรรู้เกี่ยวกับ Transformers คือ 1. เป็นสถาปัตยกรรมโมเดลที่นำเสนอในปี 2017 ผ่านบทความวิจัยชื่อ "Attention Is All You
Narut Soontranon
Hyper-parameters Tuning in Machine Learning

Hyper-parameters Tuning in Machine Learning

การปรับแต่ง Hyper-parameters เพื่อประสิทธิภาพของ Machine Learning Model ที่ดีขึ้น เป็นงานที่สำคัญที่สุดอันหนึ่งของ Data Scientist แม้ว่าการเลือก Algorithm ที่ถูกต้องและการประมวลผลข้อมูลล่วงหน้า (Data Pre-processing) ที่ดี ถือเป็นสิ่งสำคัญ แต่การทำ Model
Narut Soontranon