Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Large Language Models(LLMs) on Tabular Data: Prediction, Generation, and Understanding -- A Survey, Xi Fang+, N/A, arXiv'24 #1243

Open
AkihikoWatanabe opened this issue Mar 5, 2024 · 1 comment

Comments

@AkihikoWatanabe
Copy link
Owner

AkihikoWatanabe commented Mar 5, 2024

URL

Affiliations

  • Xi Fang, N/A
  • Weijie Xu, N/A
  • Fiona Anting Tan, N/A
  • Jiani Zhang, N/A
  • Ziqing Hu, N/A
  • Yanjun Qi, N/A
  • Scott Nickleach, N/A
  • Diego Socolinsky, N/A
  • Srinivasan Sengamedu, N/A
  • Christos Faloutsos, N/A

Abstract

  • Recent breakthroughs in large language modeling have facilitated rigorousexploration of their application in diverse tasks related to tabular datamodeling, such as prediction, tabular data synthesis, question answering, andtable understanding. Each task presents unique challenges and opportunities.However, there is currently a lack of comprehensive review that summarizes andcompares the key techniques, metrics, datasets, models, and optimizationapproaches in this research domain. This survey aims to address this gap byconsolidating recent progress in these areas, offering a thorough survey andtaxonomy of the datasets, metrics, and methodologies utilized. It identifiesstrengths, limitations, unexplored territories, and gaps in the existingliterature, while providing some insights for future research directions inthis vital and rapidly evolving field. It also provides relevant code anddatasets references. Through this comprehensive review, we hope to provideinterested readers with pertinent references and insightful perspectives,empowering them with the necessary tools and knowledge to effectively navigateand address the prevailing challenges in the field.

Translation (by gpt-3.5-turbo)

  • 最近の大規模言語モデリングの画期的な進展により、予測、表形式データ合成、質問応答、および表理解に関連するさまざまなタスクにおける応用の厳密な探索が容易になっています。
    各タスクには独自の課題と機会があります。
    しかし、この研究領域において、主要な技術、メトリクス、データセット、モデル、および最適化手法を要約および比較する包括的なレビューが現在不足しています。
    この調査は、これらの分野での最近の進歩をまとめ、利用されているデータセット、メトリクス、および方法論の徹底的な調査と分類を提供することで、このギャップを埋めることを目的としています。
    既存の文献の強み、限界、未開拓の領域、およびギャップを特定しながら、この重要で急速に進化する分野における将来の研究方向についていくつかの洞察を提供します。
    また、関連するコードとデータセットの参照も提供します。
    この包括的なレビューを通じて、興味を持つ読者に適切な参考文献と洞察により、必要なツールと知識を提供し、この分野における現在の課題に効果的に対処し、航行するための力を与えることを願っています。

Summary (by gpt-3.5-turbo)

  • 最近の大規模言語モデリングの進展により、様々なタスクにおける応用が容易になっているが、包括的なレビューが不足している。この研究は、最近の進歩をまとめ、データセット、メトリクス、方法論を調査し、将来の研究方向に洞察を提供することを目的としている。また、関連するコードとデータセットの参照も提供される。
@AkihikoWatanabe
Copy link
Owner Author

Tabular DataにおけるLLM関連のタスクや技術等のサーベイ

@AkihikoWatanabe AkihikoWatanabe changed the title Large Language Models(LLMs) on Tabular Data: Prediction, Generation, and Understanding -- A Survey, Xi Fang+, N/A, arXiv'24 Mar 5, 2024
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Projects
None yet
Development

No branches or pull requests

1 participant