-
Notifications
You must be signed in to change notification settings - Fork 0
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Reproduzir "Kinship Representation Learning with Face Componential Relation" #67
Comments
Consegui executar o Ver diff
Atualmente na época 41/50 (~30s/época). Até agora, a melhor AUC foi de 0.875248. Ao fim, será feito a busca do melhor limiar e avaliação do modelo no conjunto de teste. No próximo comentário trago as diferenças entre o que está no paper e o que está no código. |
Precisei também remover o
A média das 7 relações principais é de 0.820, como reportado no paper. |
Em resumo, o modelo A função perda usará do mapa de atenção provido pela
energy = torch.bmm(proj_query, proj_key)
energy_new = torch.max(energy, -1, keepdim=True)[0].expand_as(energy)-energy
attention = self.softmax(energy_new) No fim, o modelo está usando dois tipos de atenção:
Análise detalhada
|
Penso que os próximo passos são
Avaliar complementos/extensões/correções no meio tempo. O que os autores descreveram no paper é bastante diferente do código final. De acordo com o repositório deles, o paper foi para o ICCV 2023 Workshop, todavia no paper lá publicado não há diferenças significativas no método exposto no paper do arxiv. |
Eu tentei um experimento: permitir que o mapa de atenção seja usado na perda, como originalmente proposto no FaCoRNet. Todavia, o mapa de correlação, que usei como mapa de atenção, possui grandes valores (na casa de 10^5). Se eu escalo pela soma das linhas/colunas, o valor de beta será 1 em vez de estar no intervalo [0.08, 1]. |
https://github.com/wtnthu/FaCoR/
Criei um
requirements.txt
a partir doenvironment.yml
porque não gosto de usar conda. Abaixo os detalhesThe text was updated successfully, but these errors were encountered: