SUPERVISE LEARNING (30 ALGORITMA PREDIKSI)
Survise learning, atau yang lebih dikenal sebagai supervised learning, adalah pendekatan dalam machine learning di mana model dilatih menggunakan data yang telah diberi label. Dalam supervised learning, model mempelajari hubungan antara fitur input dan label output untuk membuat prediksi pada data baru.
Berikut adalah 30 algoritma prediksi yang umum digunakan dalam supervised learning:
1. Linear Regression: Menggunakan hubungan linear antara variabel input dan output untuk memprediksi nilai kontinu.
2. Logistic Regression: Digunakan untuk klasifikasi biner, memprediksi probabilitas dari kelas yang berbeda.
3. Decision Tree: Algoritma berbasis pohon yang membagi dataset menjadi subset yang lebih kecil berdasarkan fitur input untuk membuat prediksi.
4. Random Forest: Kombinasi dari banyak pohon keputusan untuk meningkatkan akurasi dan mengurangi overfitting.
5. Gradient Boosting Machine (GBM): Menggabungkan beberapa model prediktif sederhana untuk membentuk model yang lebih kuat melalui teknik boosting.
6. AdaBoost: Algoritma boosting yang menggabungkan beberapa model lemah untuk membentuk model yang lebih kuat.
7. Support Vector Machine (SVM): Mencari hyperplane terbaik yang memisahkan kelas dalam ruang fitur.
8. k-Nearest Neighbors (k-NN): Mengklasifikasikan data berdasarkan label dari k tetangga terdekatnya.
9. Naive Bayes: Menggunakan teorema Bayes dengan asumsi independensi antara fitur untuk klasifikasi.
10. Neural Networks: Model kompleks yang meniru cara kerja otak manusia, cocok untuk data besar dan non-linear.
11. Convolutional Neural Networks (CNN): Jenis neural network yang khusus untuk data gambar, menggunakan convolutions untuk menangkap fitur spasial.
12. Recurrent Neural Networks (RNN): Neural network yang cocok untuk data berurutan, seperti teks atau time series.
13. Long Short-Term Memory (LSTM): Tipe RNN yang dapat menangani long-term dependencies dalam data sekuensial.
14. Extreme Gradient Boosting (XGBoost): Implementasi yang efisien dan akurat dari boosting.
15. LightGBM: Algoritma boosting yang sangat efisien untuk dataset besar.
16. CatBoost: Algoritma boosting yang dioptimalkan untuk fitur kategorikal.
17. Bagging (Bootstrap Aggregating): Menggabungkan beberapa model untuk mengurangi variabilitas dan meningkatkan stabilitas.
18. Ridge Regression: Linear regression dengan regularisasi L2 untuk mencegah overfitting.
19. Lasso Regression: Linear regression dengan regularisasi L1 untuk seleksi fitur.
20. Elastic Net: Kombinasi dari Ridge dan Lasso regression untuk menggabungkan keuntungan keduanya.
21. Bayesian Regression: Menggunakan prinsip Bayesian untuk estimasi parameter dalam regresi.
22. Principal Component Regression (PCR): Menggabungkan Principal Component Analysis (PCA) dengan regresi untuk mengurangi dimensi data.
23. Partial Least Squares (PLS) Regression: Menggabungkan PCA dengan regresi untuk menangani multikolineritas.
24. Quantile Regression: Memperkirakan kuantile tertentu dari distribusi respons.
25. CART (Classification and Regression Trees): Membuat pohon keputusan untuk klasifikasi atau regresi.
26. Perceptron: Algoritma neural network dasar untuk klasifikasi linear.
27. Multi-Layer Perceptron (MLP): Jenis neural network dengan lebih dari satu lapisan tersembunyi.
28. Stochastic Gradient Descent (SGD): Metode optimasi untuk meminimalkan fungsi biaya dalam model linear dan neural network.
29. Polynomial Regression: Memperluas linear regression untuk menangkap hubungan non-linear.
30. Orthogonal Matching Pursuit (OMP): Teknik untuk seleksi fitur dan regresi yang efisien pada data besar.
Komentar
Posting Komentar