Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

cross validation #22

Open
PaulinaPacyna opened this issue Mar 16, 2021 · 1 comment
Open

cross validation #22

PaulinaPacyna opened this issue Mar 16, 2021 · 1 comment
Labels
enhancement New feature or request low priority May be done at the end

Comments

@PaulinaPacyna
Copy link
Owner

To jest ponad zakres projektu, ale możemy wykorzystać mechanizm cross validation to wyboru najlepszego modelu (np w sytuacji gdy model ma wiele minimów lokalnych, to ten mechanizm wybiera najlepsze)

@PaulinaPacyna PaulinaPacyna added enhancement New feature or request low priority May be done at the end labels Mar 16, 2021
@PaulinaPacyna
Copy link
Owner Author

Idea jest taka, że bierzemy 90% danych do trenowania modelu, sprawdzamy na pozostałych 10%, zapisujemy parametry i powtarzamy procedurę zmieniając podział zbioru. Potem bierzemy parametry dla najlepszego wyniku. Wydaje mi się, że w sklearn jest taka funkcja, ale nie wiem na ile się dostosuje (albo na ile trzeba dostosować) nasze metody w klasie.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
enhancement New feature or request low priority May be done at the end
Projects
None yet
Development

No branches or pull requests

1 participant