J'étudie l'apprentissage automatique d'ensemble et quand j'ai lu des articles en ligne, j'ai rencontré 2 questions.

1.

Dans cet article, il mentionne

Au lieu de cela, le modèle 2 peut avoir une meilleure performance globale sur tous les points de données, mais il a des performances moins bonnes sur l'ensemble même de points où le modèle 1 est meilleur. L'idée est de combiner ces deux modèles là où ils fonctionnent le mieux. C'est pourquoi la création de prédictions hors échantillon a plus de chances de capturer des régions distinctes où chaque modèle est le plus performant.

enter image description here

Mais je ne parviens toujours pas à comprendre, pourquoi ne pas former toutes les données de formation peut éviter le problème?

2.

À partir de cet article, dans la section prédiction, il mentions

Simplement, pour un point de données d'entrée donné, tout ce que nous devons faire est de le faire passer par les M apprenants de base et d'obtenir M nombre de prédictions, et d'envoyer ces M prédictions via le méta-apprenant comme entrées

Mais dans le processus de formation, nous utilisons des données de train k-fold pour former M apprenant de base, alors devrais-je également former M apprenant de base sur la base de toutes les données de train pour l'entrée à prédire?

-2
Jason 17 avril 2018 à 06:37

3 réponses

Meilleure réponse

Supposons que le rouge et le bleu étaient les meilleurs modèles que vous puissiez trouver.

L'un fonctionne mieux dans la région 1, l'autre dans la région 2.

Maintenant, vous formeriez également un classificateur pour prédire le modèle à utiliser, c'est-à-dire que vous essaieriez d'apprendre les deux régions.

Faites la validation à l'extérieur. Vous pouvez surcharger si vous donnez aux deux modèles internes l'accès à des données que le méta-modèle ne voit pas.

2
Has QUIT--Anony-Mousse 17 avril 2018 à 06:39

1) "Mais je ne parviens toujours pas à comprendre, pourquoi ne pas former toutes les données d'entraînement peut éviter le problème?" - Nous conserverons ces données à des fins de validation, tout comme nous le faisons dans K-fold

2) "alors devrais-je également former M apprenant de base sur la base de toutes les données de train pour l'entrée à prévoir?" - Si vous donnez les mêmes données à tous les apprenants, la sortie de tous serait la même et il ne sert à rien de les créer. Nous allons donc donner un sous-ensemble de données à chaque apprenant.

0
Vijay Bhaskar 17 avril 2018 à 06:56

L'idée dans les ensembles est qu'un groupe de prédicteurs faibles surpasse un prédicteur fort. Donc, si nous formons différents modèles avec des résultats prédictifs différents et utilisons la règle de la majorité comme résultat final de notre ensemble, ce résultat est meilleur que d'essayer de former un seul modèle. Supposons, par exemple, que les données se composent de deux modèles distincts, un linéaire et un quadratique. Ensuite, l'utilisation d'un classificateur unique peut soit surcharger, soit produire des résultats inexacts. Vous pouvez lire ce tutoriel pour en savoir plus sur ensembles et ensachage et boosting.

1
Sadjad Anzabi Zadeh 17 avril 2018 à 12:53