Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Comparação com outros modelos #1

Open
FerroEduardo opened this issue May 16, 2023 · 2 comments
Open

Comparação com outros modelos #1

FerroEduardo opened this issue May 16, 2023 · 2 comments

Comments

@FerroEduardo
Copy link

Seria possível adicionar comparações com outros modelos, como os SentenceTransformer multilingual?
Pelos testes que realizei, os modelos apresentados aqui possuem um desempenho bem superior em STS

@ruanchaves
Copy link
Owner

Olá Eduardo,

Este repositório ainda está em desenvolvimento e temos previsão de lançar a versão final por volta do mês de julho. Não temos planos de realizar experimentos com modelos que estejam muito abaixo do estado da arte, como é o caso de baselines zero-shot usando SentenceTransformers.

Entretanto, caso você decida realizar esses experimentos, por favor me informe para que eu possa referenciar seus benchmarks no repositório. Você também pode submeter um pull request diretamente com suas contribuições.

@thacio
Copy link

thacio commented Jun 17, 2023

Opa, se tiver interesse de conferir no STS o ult5-small conseguiu pearson=0.8174 e mse =0.419042, em todas as tentativas sempre chegou abaixo do 0.47 atual. Único porém é que eu não conferi se o dataset que está no huggingface é exatamente o mesmo do github, acredito que seja.

Os sentence-transformers sem treino realmente ficam aquém. o sentence-transformer-ult5-pt-small faz cosine person em 0.76 (não sei se é o mesmo que o personr, mas deve ser parecido) , e o paraphrase-multilingual-mpnet-base-v2 não lembro, mas é marginalmente acima.

Pros casos desses encoder-decoders, eu já fiz um dataset que facilita a vida: https://github.com/thacio/LLM-Notebooks .
Estou implementado os encoders, testando ainda.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

3 participants