Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Machine learning akan jauh lebih sederhana jika semua
kurva kerugian
terlihat seperti ini saat pertama kali Anda melatih model:
Gambar 20. Kurva kerugian yang ideal.
Sayangnya, kurva kerugian sering kali sulit ditafsirkan. Gunakan
intuisi Anda tentang kurva kerugian untuk menyelesaikan latihan di halaman ini.
Latihan 1: Kurva kerugian berosilasi
Gambar 21. Kurva kerugian yang berosilasi.
Tiga hal apa yang dapat Anda lakukan untuk mencoba meningkatkan kurva kerugian
yang ditampilkan pada Gambar 21?
Periksa data Anda dengan skema data untuk mendeteksi contoh yang buruk, lalu
hapus contoh yang buruk dari set pelatihan.
Ya, ini adalah praktik yang baik untuk semua model.
Kurangi kecepatan pembelajaran.
Ya, mengurangi kecepatan belajar sering kali merupakan ide yang baik saat men-debug
masalah pelatihan.
Kurangi set pelatihan menjadi sejumlah kecil contoh yang tepercaya.
Meskipun teknik ini terdengar tidak alami, sebenarnya ini adalah ide yang baik. Dengan asumsi bahwa model berkonvergensi pada sekumpulan kecil
contoh yang dapat dipercaya, Anda dapat menambahkan lebih banyak contoh secara bertahap,
mungkin menemukan contoh yang menyebabkan kurva kerugian
berosilasi.
Tingkatkan jumlah contoh dalam set pelatihan.
Ini adalah ide yang menarik, tetapi sangat tidak mungkin memperbaiki masalah.
Tingkatkan kecepatan pembelajaran.
Secara umum, hindari peningkatan kecepatan belajar saat kurva
pembelajaran model menunjukkan masalah.
Latihan 2. Kurva kerugian dengan lonjakan tajam
Gambar 22. Peningkatan kerugian yang signifikan.
Dua pernyataan manakah dari pernyataan berikut yang mengidentifikasi kemungkinan
alasan terjadinya ledakan kerugian yang ditunjukkan pada Gambar 22?
Data input berisi satu atau beberapa NaN—misalnya, nilai yang disebabkan oleh pembagian dengan nol.
Hal ini lebih sering terjadi daripada yang Anda kira.
Data input berisi sekelompok outlier.
Terkadang, karena pengacakan batch yang tidak tepat, batch mungkin
berisi banyak pencilan.
Kecepatan pembelajaran terlalu rendah.
Kecepatan pembelajaran yang sangat rendah dapat meningkatkan waktu pelatihan, tetapi
bukan penyebab kurva kerugian yang aneh.
Rasio regularisasi terlalu tinggi.
Benar, regularisasi yang sangat tinggi dapat mencegah model
berkonvergensi; tetapi, hal ini tidak akan menyebabkan kurva loss yang aneh
yang ditampilkan pada Gambar 22.
Latihan 3. Kerugian pengujian berbeda dengan kerugian pelatihan
Gambar 23. Peningkatan tajam dalam kehilangan validasi.
Manakah dari pernyataan berikut yang paling baik mengidentifikasi
alasan perbedaan ini antara kurva kerugian set pelatihan
dan pengujian?
Model mengalami overfitting pada set pelatihan.
Ya, mungkin saja. Kemungkinan solusi:
Buat model lebih sederhana, mungkin dengan mengurangi jumlah
fitur.
Tingkatkan derajat regularisasi.
Pastikan set pelatihan dan set pengujian secara statistik
setara.
Kecepatan pembelajaran terlalu tinggi.
Jika kecepatan pembelajaran terlalu tinggi, kurva kerugian untuk set pelatihan
kemungkinan tidak akan berperilaku seperti yang dilakukannya.
Latihan 4. Kurva kerugian macet
Gambar 24. Kerugian acak setelah sejumlah langkah tertentu.
Manakah dari pernyataan berikut yang paling mungkin
menjadi penjelasan untuk kurva kerugian yang tidak menentu yang ditampilkan dalam Gambar 24?
Set pelatihan tidak diacak dengan baik.
Hal ini mungkin terjadi. Misalnya, set pelatihan yang berisi 100
gambar, diikuti dengan 100 gambar kucing, dapat menyebabkan loss
berosilasi saat model dilatih. Pastikan Anda mengacak
contoh dengan cukup.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Informasi yang saya butuhkan tidak ada","missingTheInformationINeed","thumb-down"],["Terlalu rumit/langkahnya terlalu banyak","tooComplicatedTooManySteps","thumb-down"],["Sudah usang","outOfDate","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Masalah kode / contoh","samplesCodeIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-06-02 UTC."],[[["\u003cp\u003eThis document helps you understand and interpret Machine Learning loss curves through a series of exercises and visual examples.\u003c/p\u003e\n"],["\u003cp\u003eYou will learn how to identify common issues like oscillating loss, exploding loss, overfitting, and erratic behavior in your models.\u003c/p\u003e\n"],["\u003cp\u003eSolutions are provided for each exercise, along with explanations for various loss curve patterns.\u003c/p\u003e\n"],["\u003cp\u003eTechniques to address these issues are discussed, including adjusting learning rate, cleaning training data, and applying regularization.\u003c/p\u003e\n"],["\u003cp\u003eA glossary of key Machine Learning terminology related to loss curves and model training is included for quick reference.\u003c/p\u003e\n"]]],[],null,["Machine learning would be much simpler if all your\n[**loss curves**](/machine-learning/glossary#loss_curve)\nlooked like this the first time you trained your model:\n**Figure 20.** An ideal loss curve.\n\nUnfortunately, loss curves are often challenging to interpret. Use your\nintuition about loss curves to solve the exercises on this page.\n\nExercise 1: Oscillating loss curve **Figure 21.** Oscillating loss curve. \nWhat **three** things could you do to try improve the loss curve shown in Figure 21? \nCheck your data against a data schema to detect bad examples, and then remove the bad examples from the training set. \nYes, this is a good practice for all models. \nReduce the learning rate. \nYes, reducing learning rate is often a good idea when debugging a training problem. \nReduce the training set to a tiny number of trustworthy examples. \nAlthough this technique sounds artificial, it is actually a good idea. Assuming that the model converges on the small set of trustworthy examples, you can then gradually add more examples, perhaps discovering which examples cause the loss curve to oscillate. \nIncrease the number of examples in the training set. \nThis is a tempting idea, but it is extremely unlikely to fix the problem. \nIncrease the learning rate. \nIn general, avoid increasing the learning rate when a model's learning curve indicates a problem.\n\nExercise 2. Loss curve with a sharp jump **Figure 22.** Sharp rise in loss. \nWhich **two** of the following statements identify possible reasons for the exploding loss shown in Figure 22? \nThe input data contains one or more NaNs---for example, a value caused by a division by zero. \nThis is more common than you might expect. \nThe input data contains a burst of outliers. \nSometimes, due to improper shuffling of batches, a batch might contain a lot of outliers. \nThe learning rate is too low. \nA very low learning rate might increase training time, but it is not the cause of the strange loss curve. \nThe regularization rate is too high. \nTrue, a very high regularization could prevent a model from converging; however, it won't cause the strange loss curve shown in Figure 22.\n\nExercise 3. Test loss diverges from training loss **Figure 23.** Sharp rise in validation loss. \nWhich **one** of the following statements best identifies the reason for this difference between the loss curves of the training and test sets? \nThe model is overfitting the training set. \nYes, it probably is. Possible solutions:\n\n- Make the model simpler, possibly by reducing the number of features.\n- Increase the regularization rate.\n- Ensure that the training set and test set are statistically equivalent. \nThe learning rate is too high. \nIf the learning rate were too high, the loss curve for the training set would likely not have behaved as it did.\n\nExercise 4. Loss curve gets stuck **Figure 24.** Chaotic loss after a certain number of steps. \nWhich **one** of the following statements is the most likely explanation for the erratic loss curve shown in Figure 24? \nThe training set is not shuffled well. \nThis is a possibility. For example, a training set that contains 100 images of dogs followed by 100 images of cats may cause loss to oscillate as the model trains. Ensure that you shuffle examples sufficiently. \nThe regularization rate is too high. \nThis is unlikely to be the cause. \nThe training set contains too many features. \nThis is unlikely to be the cause.\n| **Key terms:**\n|\n| - [Batch](/machine-learning/glossary#batch)\n| - [Example](/machine-learning/glossary#example)\n| - [Feature](/machine-learning/glossary#feature)\n| - [Learning rate](/machine-learning/glossary#learning-rate)\n| - [Loss curve](/machine-learning/glossary#loss_curve)\n| - [Outliers](/machine-learning/glossary#outliers)\n| - [Overfitting](/machine-learning/glossary#overfitting)\n| - [Regularization](/machine-learning/glossary#regularization)\n| - [Regularization rate](/machine-learning/glossary#regularization-rate)\n| - [Test set](/machine-learning/glossary#test-set)\n| - [Training set](/machine-learning/glossary#training-set)\n- [Validation set](/machine-learning/glossary#validation_set) \n[Help Center](https://support.google.com/machinelearningeducation)"]]