# 5 : En quelques mots, qu'en concluez vous ? Quel point commun entre la complexité de notre modèle polynomial et la complexité d'un réseau de neurones ?
# 5.1 : Avez vous remarqué une différence entre la "facilité" avec laquelle ces deux modèles overfittent?
# 5.2 BONUS : Avez vous remarqué / saisi un lien entre "tendance à overfit" et "quantité de data"? Est-ce que changer l'une influence l'autre ?
# FIXME NIVEAU EXPERT:
# LVL 6 Suivez cette doc de Google Cloud pour éviter l'overfitting : https://cloud.google.com/bigquery-ml/docs/preventing-overfitting?
# 6.1 : Cherchez sur internet plus d'info sur l'Early Stopping. Quel intérêt ? Que propose SKLearn pour le faire, par exemple dans le modèle MLPRegressor ?
# 6.2 : Cherchez sur le net plus d'info sur la Regularization.
# Pourquoi c'est important en pratique quand on développe un modèle ? Que propose SKlearn à ce propos ?
# 6.3 BONUS : Suivez ce tutoriel : https://medium.com/coinmonks/regularization-of-linear-models-with-sklearn-f88633a93a2
# Quelle différence comprenez-vous entre la régularization L1 et L2?