Page des modeles

Modèle de machine learning

Modèles classiques

  • Régressions linéaires / logistiques

  • SVM

  • Arbres de décision, random forest, XGBoost

  • k-NN

Réseaux de neurones

  • RNN / LSTM / GRU : spécialisés pour les séries temporelles

  • Transformer pour séries temporelles (plus récent, efficace)

  • Autoencoders pour réduction de dimension ou détection d’anomalies

Apprentissage par renforcement (RL)

  • Agents apprenant à acheter/vendre selon des récompenses

  • Approche utilisée par les hedge funds

Différent modèle possible

  1. Classification supervisée (prévoir si ça monte ou baisse)

Famille Algorithme Notes utiles

Linéaire

Logistic Regression

Simple, rapide, solide baseline pour prédiction directionnelle

Linear Discriminant Analysis (LDA)

Utile si les classes sont bien séparables

Arbres

Decision Tree Classifier

Interprétable mais instable seul

Random Forest Classifier

Robuste, capte les non-linéarités

Gradient Boosting (XGBoost, LightGBM…​)

Très performant, souvent top en finance

Distance-based

K-Nearest Neighbors (KNN)

Simple, mais lent avec beaucoup de données

Support Vectors

Support Vector Machine (SVM)

Efficace sur données bien séparables, nécessite scaling

Réseaux de neurones

MLPClassifier (Multi-Layer Perceptron)

Non linéaire, demande tuning et plus de données

Bayésien

Naive Bayes

Très rapide, mais trop simpliste pour des données complexes

Ensemble

StackingClassifier, VotingClassifier

Combine plusieurs modèles pour améliorer la robustesse

  1. Régression supervisée (prévoir un prix ou un rendement)

Famille Algorithme Notes utiles

Linéaire

Linear Regression

Simple, baseline utile mais souvent insuffisante en finance

Ridge / Lasso Regression

Régularisation pour éviter l’overfitting

Arbres

Decision Tree Regressor

Interprétable mais instable seul

Random Forest Regressor

Robuste, très bon point de départ

Gradient Boosting (XGBoost, LightGBM…​)

Très efficace, souvent top pour prédire des rendements

Support Vectors

SVR (Support Vector Regression)

Stable mais sensible au bruit, scaling obligatoire

Réseaux de neurones

MLPRegressor

Bon pour apprendre des patterns non linéaires complexes

Ensemble

StackingRegressor, VotingRegressor

Combine plusieurs modèles pour plus de performance