New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Main Results #1
Comments
@affromero: excelente! Me gusta Mr. Smith de capul. Inclusive podríamos tener un ejemplo de una imagen de la película en la que originalmente haya muchos Mr. Smith iguales y luego los cambiamos a todos para confundir a Neo. |
@parbela Ya que tenemos tiempo, entrené edges2shoes y edges2handbags juntos, como un meta-dataset con 4 etiquetas: bordes_zapatos, bordes_bolsos, imagen_zapato, imagen_bolso (aquí sin el attention loss porque no tiene mucho sentido): La parte cuantiativa ya la tengo la próxima semana porque estoy reentrenando DRIT y MUNIT para estas dos bases de datos y también para Yosemite, ya que MUNIT usa edges en la parte cuantitativa y DRIT usa Yosemite, entonces para poder hacer algo chévere en esta parte. Adicionalmente ya por fin tengo acceso a unas GPUs buenas en el cluster de ETH entonces ya estos baselines los tendré listos el lunes. |
Excelente! |
Resultados finales: Circulos verdes significan inicio y final de interpolación de estilos, respectivamente.
Estos resultados son SIN regularizar el estilo. Me di cuenta que simplemente inyectando ruido aleatorio genera mejores imágenes, que si reconstruyo el estilo. Y lo más raro es que no hace mode collapse, al menos no muy grave. Es decir, no necesitamos un "style encoder". Esto va en contra de lo que se dice que inyectar ruido aleatorio hace que la red lo ignore si no se regulariza.
@parbela
The text was updated successfully, but these errors were encountered: