OS-Copilot
https://github.com/OS-Copilot/OS-Copilot
An self-improving embodied conversational agent seamlessly integrated into the operating system to automate our daily tasks.
OS-Copilot is an open-source library to build generalist agents capable of automatically interfacing with comprehensive elements in an operating system (OS), including the web, code terminals, files, multimedia, and various third-party applications.
阿里
https://help.aliyun.com/zh/alinux/user-guide/instructions-for-os-copilot
https://developer.aliyun.com/article/1569065#:~:text=OS%20Copil
https://openanolis.cn/blog/detail/1129965695296482635#:~:text=%E4%B8%BA%E4%BA%86%E5%BA%94%E5%AF%B9%E8%BF%99%E4%BA%9B%E6%8C%91%E6%88%98
功能介紹
命令列自然語言問答
透過命令列自然語言問答,OS Copilot可以讓使用者直接在OS的命令列中輸入在使用中的自然語言表述的問題,幫助使用者回答日常及作業系統領域相關資訊,簡化使用者需要切換到瀏覽器搜尋的步驟,降低OS使用成本及使用連貫性,提高日常OS使用效率和使用者體驗。OS Copilot透過後端的LLM大模型,可以讓使用者輕鬆地接觸到阿里雲作業系統團隊多年積累的系統領域知識,讓使用者可以更精準地搜尋到作業系統相關資訊,特別是對於阿里雲自研作業系統Alibaba Cloud Linux及阿里雲主導開源社群龍蜥作業系統AnolisOS的相關知識。
輔助命令執行
不同於Windows視覺化的桌面作業系統,Linux作業系統主要透過命令列來進行作業系統日常的使用及維護等操作。而複雜繁多的命令列,對於Linux小白使用者來說是入門Linux的第一道門檻。OS Copilot提供輔助命令執行功能,讓Linux的小白使用者也能迅速上手簡單的Linux的使用。
阿里雲CLI呼叫
阿里雲CLI(Command Line Interface)是基於阿里雲開放API建立的管理工具。藉助此工具,您可以透過呼叫阿里雲開放API來管理阿里雲產品。OS Copilot支援讓使用者在作業系統內完成阿里雲CLI的呼叫,透過命令列簡單進行ECS資訊及例項ID等查詢。
系統運維和調優
在作業系統使用中的重要場景是系統的運維和調優,作業系統的表現對於業務有著非常大的影響。雖然市面上有很多的相關運維和調優產品,但是系統的運維和調優需要相關人員有相關Linux核心專業知識的積累及長期的問題處理經驗,而具備相關能力的人才是非常有限的。Copilot可以透過自然語言呼叫相關係統運維及調優工具,特別是阿里雲自研的系統工具,幫助使用者輕鬆使用系統工具定位系統問題,提升系統效能表現。
open-interpreter
https://github.com/OpenInterpreter/open-interpreter
Open Interpreter lets LLMs run code (Python, Javascript, Shell, and more) locally. You can chat with Open Interpreter through a ChatGPT-like interface in your terminal by running
$ interpreter
after installing.This provides a natural-language interface to your computer's general-purpose capabilities:
- Create and edit photos, videos, PDFs, etc.
- Control a Chrome browser to perform research
- Plot, clean, and analyze large datasets
- ...etc.
⚠️ Note: You'll be asked to approve code before it's run.
實踐
https://docs.openinterpreter.com/getting-started/introduction
https://docs.openinterpreter.com/language-models/local-models/lm-studio
interactive_quickstart.py
# This is all you need to get started from interpreter import interpreter interpreter.offline = True interpreter.llm.model = "openai/local" # Tells OI to use an OpenAI-compatible server interpreter.llm.api_key = "dummy_key" interpreter.llm.api_base = "http://172.20.160.1:1234/v1" # interpreter.llm.model = "lmstudio-community/Meta-Llama-3.1-8B-Instruct-GGUF/Meta-Llama-3.1-8B-Instruct-Q4_K_M.gguf" interpreter.llm.context_window = 7000 interpreter.llm.max_tokens = 1000 interpreter.llm.supports_functions = False interpreter.chat()
prerequisite:
enter direcotry:
/home/song/workspace/open-interpreter/examples
task:
copy the files which name contains "local" word in the current work directory to the target directory "/home/song/workspace/copiedlocal".