Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Responsible Task Automation: Empowering Large Language Models as Responsible Task Automators, Zhizheng Zhang+, N/A, arXiv'23 #739

Open
AkihikoWatanabe opened this issue Jun 16, 2023 · 0 comments
Labels

Comments

@AkihikoWatanabe
Copy link
Owner

AkihikoWatanabe commented Jun 16, 2023

URL

Affiliations

  • Zhizheng Zhang, N/A
  • Xiaoyi Zhang, N/A
  • Wenxuan Xie, N/A
  • Yan Lu, N/A

Abstract

  • The recent success of Large Language Models (LLMs) signifies an impressivestride towards artificial general intelligence. They have shown a promisingprospect in automatically completing tasks upon user instructions, functioningas brain-like coordinators. The associated risks will be revealed as wedelegate an increasing number of tasks to machines for automated completion. Abig question emerges: how can we make machines behave responsibly when helpinghumans automate tasks as personal copilots? In this paper, we explore thisquestion in depth from the perspectives of feasibility, completeness andsecurity. In specific, we present Responsible Task Automation (ResponsibleTA)as a fundamental framework to facilitate responsible collaboration betweenLLM-based coordinators and executors for task automation with three empoweredcapabilities: 1) predicting the feasibility of the commands for executors; 2)verifying the completeness of executors; 3) enhancing the security (e.g., theprotection of users' privacy). We further propose and compare two paradigms forimplementing the first two capabilities. One is to leverage the genericknowledge of LLMs themselves via prompt engineering while the other is to adoptdomain-specific learnable models. Moreover, we introduce a local memorymechanism for achieving the third capability. We evaluate our proposedResponsibleTA on UI task automation and hope it could bring more attentions toensuring LLMs more responsible in diverse scenarios. The research projecthomepage is athttps://task-automation-research.github.io/responsible_task_automation.

Translation (by gpt-3.5-turbo)

  • 大規模言語モデル(LLMs)の最近の成功は、人工一般知能への印象的な進歩を示しています。彼らは、ユーザーの指示に従ってタスクを自動的に完了することで、脳のようなコーディネーターとして機能し、有望な展望を示しています。機械にタスクを自動化してもらうことが増えるにつれて、関連するリスクが明らかになってきます。大きな問題が浮かび上がります。つまり、機械が人間の個人的なコパイロットとしてタスクを自動化する際に、どのようにして機械が責任ある行動を取るようにすることができるのでしょうか?本論文では、実現可能性、完全性、セキュリティの観点から、この問題を詳しく探求します。具体的には、Responsible Task Automation(ResponsibleTA)を基本的なフレームワークとして提示し、LLMベースのコーディネーターとエグゼキューターの責任ある協力を促進するための3つの強化された機能を備えます。1)エグゼキューターのコマンドの実現可能性を予測すること、2)エグゼキューターの完全性を検証すること、3)セキュリティを強化すること(例:ユーザーのプライバシー保護)。さらに、最初の2つの機能を実装するための2つのパラダイムを提案し、比較します。1つは、プロンプトエンジニアリングを介してLLMs自体の一般的な知識を活用することであり、もう1つは、ドメイン固有の学習可能なモデルを採用することです。さらに、第3の機能を実現するためのローカルメモリメカニズムを紹介します。提案されたResponsibleTAをUIタスク自動化で評価し、LLMsが様々なシナリオでより責任ある行動を取ることにより、より多くの注目を集めることを期待しています。研究プロジェクトのホームページは、https://task-automation-research.github.io/responsible_task_automationです。

Summary (by gpt-3.5-turbo)

  • 本論文では、大規模言語モデル(LLMs)を使用したタスク自動化における責任ある行動の実現可能性、完全性、セキュリティについて探求し、Responsible Task Automation(ResponsibleTA)フレームワークを提案する。具体的には、エグゼキューターのコマンドの実現可能性を予測すること、エグゼキューターの完全性を検証すること、セキュリティを強化することを目的とした3つの強化された機能を備え、2つのパラダイムを提案する。また、ローカルメモリメカニズムを紹介し、UIタスク自動化でResponsibleTAを評価する。
@AkihikoWatanabe AkihikoWatanabe changed the title Responsible Task Automation: Empowering Large Language Models as Responsible Task Automators, Zhizheng Zhang+, N/A, arXiv'23 Jun 16, 2023
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
Projects
None yet
Development

No branches or pull requests

1 participant