مستوحى من طريقة تعلّم الدماغ. اجعل 🦞 الخاص بك يتعلّم ويتطوّر من كل محادثة حقيقية. لا حاجة لوحدات GPU. يدعم Kimi وQwen وClaude وMiniMax والمزيد.
🇺🇸 English • 🇨🇳 中文 • 🇯🇵 日本語 • 🇰🇷 한국어 • 🇫🇷 Français • 🇩🇪 Deutsch • 🇪🇸 Español • 🇧🇷 Português • 🇷🇺 Русский • 🇮🇹 Italiano • 🇻🇳 Tiếng Việt • 🇮🇳 हिन्दी
نظرة عامة • البدء السريع • الإعدادات • وضع المهارات • وضع RL • وضع Auto • الاقتباس
metaclaw setup # معالج الإعداد لمرة واحدة
metaclaw start # الوضع الافتراضي: auto، مهارات + تدريب RL مُجدوَل
metaclaw start --mode rl # RL بدون مُجدوِل (يتدرّب فورًا عند اكتمال الدُّفعة)
metaclaw start --mode skills_only # مهارات فقط، بدون RL (لا حاجة لـ Tinker)- [2026/03/25] v0.4.0 — طبقة السياق (Contexture layer): يحتفظ MetaClaw الآن بالذاكرة عبر الجلسات للمستخدمين والمشاريع. يتم استرجاع الحقائق والتفضيلات وتاريخ المشروع ذات الصلة تلقائيًا وحقنها في المطالبات. يشمل سياسة ذاكرة تكيفية وتوحيدًا في الخلفية وخدمة sidecar اختيارية للذاكرة.
- [2026/03/16] v0.3.2 دعم متعدد الـ Claw: أصبح IronClaw وPicoClaw وZeroClaw وCoPaw وNanoClaw وNemoClaw مدعومين إلى جانب OpenClaw. NanoClaw عبر نقطة النهاية الجديدة المتوافقة مع Anthropic
/v1/messages؛ NemoClaw عبر توجيه الاستدلال OpenShell. إضافة OpenRouter كمنصة LLM مدعومة. - [2026/03/13] v0.3.1 دعم واجهة MinT الخلفية: يعمل تدريب RL الآن مع Tinker وMinT معًا. يمكن ضبطه عبر
rl.backend(auto/tinker/mint). - [2026/03/13] v0.3 دعم التعلّم الفوقي المستمر: تحديثات RL البطيئة تعمل فقط خلال ساعات النوم أو فترات الخمول أو اجتماعات Google Calendar. تمت إضافة فصل مجموعات support/query لمنع إشارات المكافأة القديمة من تلويث تحديثات النموذج.
- [2026/03/11] v0.2 نشر بنقرة واحدة عبر واجهة
metaclawCLI. المهارات مُفعّلة افتراضيًا، وRL أصبح اختياريًا. - [2026/03/09] إطلاق MetaClaw رسميًا. فقط تحدّث مع الوكيل ودعه يتطوّر تلقائيًا. لا حاجة لنشر GPU، فقط اتصل بـ API.
video_v2_compressed.mp4
MetaClaw وكيل يتعلّم فوقيًا ويتطوّر في البيئات الحقيقية. فقط تحدّث مع وكيلك كالمعتاد. يحوّل MetaClaw كل محادثة حيّة إلى إشارة تعلّم، مما يُمكّن الوكيل من التحسّن المستمر من خلال النشر الفعلي بدلًا من الاعتماد على التدريب دون اتصال فقط.
في الخلفية، يضع MetaClaw نموذجك خلف وكيل وسيط متوافق مع OpenAI (مع نقطة نهاية /v1/messages متوافقة مع Anthropic للوكلاء مثل NanoClaw) يعترض التفاعلات من OpenClaw وNanoClaw وNemoClaw وغيرها من الوكلاء المدعومين، ويحقن المهارات ذات الصلة في كل دور، ويتعلّم فوقيًا من التجارب المتراكمة. تُلخَّص المهارات تلقائيًا بعد كل جلسة. عند تفعيل RL، يؤجّل مُجدوِل التعلّم الفوقي تحديثات الأوزان إلى فترات الخمول حتى لا يُقاطَع الوكيل أثناء الاستخدام النشط.
لا حاجة لمجموعة GPU. يعمل MetaClaw مع أي واجهة LLM API متوافقة مع OpenAI مباشرةً، ويستخدم واجهة خلفية متوافقة مع Tinker لتدريب LoRA السحابي. Tinker هو المسار المرجعي الافتراضي، ويمكن تفعيل MinT أو Weaver من خلال حزم توافق منفصلة عند الحاجة.
قم بالإعداد مرة واحدة باستخدام metaclaw setup، ثم metaclaw start يُشغّل الوكيل الوسيط ويحقن المهارات ويربط OpenClaw تلقائيًا. لا حاجة لسكربتات shell يدوية.
| الوضع | افتراضي | الوصف |
|---|---|---|
skills_only |
وكيل وسيط لواجهة LLM API الخاصة بك. يحقن المهارات ويُلخّصها تلقائيًا بعد كل جلسة. لا حاجة لـ GPU / Tinker. | |
rl |
المهارات + تدريب RL (GRPO). يتدرّب فورًا عند اكتمال الدُّفعة. OPD اختياري لتقطير المعلّم. | |
auto |
✅ | المهارات + RL + مُجدوِل ذكي. تحديثات أوزان RL تعمل فقط خلال فترات النوم/الخمول/الاجتماعات. |
يمكن لـ MetaClaw الاحتفاظ بالحقائق والتفضيلات وسجل المشروع عبر الجلسات وحقن السياق المناسب في كل دور — حتى يتذكر الوكيل ما أخبرته به حتى بعد أسابيع.
الخدمة ونمذجة المكافآت والتدريب منفصلة تمامًا. يستمر الوكيل في الاستجابة بينما يعمل التقييم والتحسين بالتوازي في الخلفية.
OpenClaw (تثبيت بنقرة واحدة): استخدم الإصدار v0.4.0 — نفّذ الأوامر أدناه، ثم metaclaw setup وmetaclaw start. مزيد من التفاصيل (Windows، المرايا، الإعداد، استكشاف الأخطاء): extensions/metaclaw-openclaw/README.md.
curl -LO https://github.com/aiming-lab/MetaClaw/releases/download/v0.4.0/metaclaw-plugin.zip
unzip metaclaw-plugin.zip -d ~/.openclaw/extensions
openclaw plugins enable metaclaw-openclaw && openclaw gateway restartpip (PyPI أو هذا المستودع):
pip install -e . # وضع skills_only (خفيف الوزن)
pip install -e ".[rl]" # + دعم تدريب RL (torch، transformers، tinker)
pip install -e ".[evolve]" # + تطوير المهارات عبر LLM متوافق مع OpenAI
pip install -e ".[scheduler]" # + تكامل Google Calendar مع المُجدوِل
pip install -e ".[rl,evolve,scheduler]" # موصى به: إعداد RL + مُجدوِل كامل(اختياري) يستخدم دمج WeChat الملحق الرسمي @tencent-weixin/openclaw-weixin. يثبّت MetaClaw هذا الملحق تلقائياً عند تفعيل WeChat:
metaclaw config wechat.enabled true
metaclaw startيتم تثبيت الملحق تلقائياً عند بدء MetaClaw. يمكنك أيضاً تثبيته يدوياً:
npx -y @tencent-weixin/openclaw-weixin-cli@latest installلتبديل حسابات WeChat (إعادة تسجيل الدخول برمز QR جديد):
metaclaw start --wechat-reloginإذا كنت تريد استخدام rl.backend=mint، قم بتثبيت حزمة توافق MinT بشكل منفصل في نفس البيئة، مثل mindlab-toolkit. لاستخدام rl.backend=weaver، قم بتثبيت nex-weaver بشكل منفصل. لا يضمّن MetaClaw هذه التبعيات في الحزمة الافتراضية حتى يتمكّن مستخدمو RL من اختيار Tinker أو MinT أو Weaver بشكل صريح.
metaclaw setupالدليل التفاعلي سيطلب منك:
- اختيار الوكيل الشخصي —
openclawأوcopawأوironclawأوpicoclawأوzeroclawأوnanoclawأوnemoclawأوnone(يضبطه MetaClaw تلقائياً عند التشغيل) - اختيار مزود LLM — Kimi أو Qwen أو OpenAI أو Volcano Engine أو مخصص
- إدخال مفتاح API وتفعيل تدريب RL اختيارياً
يمكن لمسار RL في MetaClaw التبديل صراحةً بين tinker وmint وweaver. القيمة الافتراضية الموصى بها هي auto وستظل تستنتج MinT أو Weaver من بيانات الاعتماد أو عناوين URL المقابلة عندما تكون الحزم مثبّتة.
Tinker:
metaclaw config rl.backend tinker
metaclaw config rl.api_key sk-...
metaclaw config rl.model moonshotai/Kimi-K2.5MinT:
metaclaw config rl.backend mint
metaclaw config rl.api_key sk-mint-...
metaclaw config rl.base_url https://mint.macaron.xin/
metaclaw config rl.model Qwen/Qwen3-4B-Instruct-2507Weaver:
metaclaw config rl.backend weaver
metaclaw config rl.api_key sk-...
metaclaw config rl.base_url https://weaver-console.nex-agi.cn
metaclaw config rl.model Qwen/Qwen3-8Bالأسماء المستعارة القديمة rl.tinker_api_key وrl.tinker_base_url لا تزال مقبولة للتوافق مع الإصدارات السابقة.
metaclaw startهذا كل شيء. يبدأ MetaClaw البروكسي، ويضبط الوكيل الشخصي المختار تلقائياً، ويعيد تشغيل البوابة. افتح الوكيل وابدأ المحادثة — تُحقَن المهارات في كل دور وتُلخَّص الجلسة تلقائياً إلى مهارات جديدة عند الانتهاء.
ملف الإعدادات موجود في ~/.metaclaw/config.yaml، يُنشأ بواسطة metaclaw setup.
أوامر CLI:
metaclaw setup # معالج الإعداد التفاعلي لأول مرة
metaclaw start # تشغيل MetaClaw (الوضع الافتراضي: auto)
metaclaw start --mode rl # فرض وضع RL لهذه الجلسة (بدون مُجدوِل)
metaclaw start --mode skills_only # فرض وضع المهارات فقط لهذه الجلسة
metaclaw stop # إيقاف مثيل MetaClaw قيد التشغيل
metaclaw status # التحقق من صحة الوكيل الوسيط والوضع الحالي وحالة المُجدوِل
metaclaw config show # عرض الإعدادات الحالية
metaclaw config KEY VALUE # تعيين قيمة إعداد
metaclaw config llm.oauth_token TOKEN # تخزين رمز OAuth لمزود CLI الحالي
metaclaw auth paste-token --provider anthropic # تخزين رمز OAuth (anthropic | openai-codex | gemini)
metaclaw auth status # عرض جميع ملفات المصادقة المخزّنة
metaclaw uninstall # حذف جميع بيانات MetaClaw وإضافة OpenClaw وحزمة pip
استخدم metaclaw status للتحقق من الجاهزية وmetaclaw stop لإيقاف العملية.
المرجع الكامل للإعدادات (انقر للتوسيع)
mode: auto # "auto" | "rl" | "skills_only"
claw_type: openclaw # "openclaw" | "copaw" | "ironclaw" | "picoclaw" | "zeroclaw" | "nanoclaw" | "nemoclaw" | "hermes" | "none"
llm:
auth_method: api_key # "api_key" | "oauth_token"
provider: kimi # kimi | qwen | openai | minimax | novita | openrouter | volcengine | custom
model_id: moonshotai/Kimi-K2.5
api_base: https://api.moonshot.cn/v1
api_key: sk-...
# مثال oauth_token (الرمز مخزَّن عبر `metaclaw auth paste-token`):
# auth_method: oauth_token
# provider: anthropic # anthropic | openai-codex | gemini
# model_id: claude-sonnet-4-6
proxy:
port: 30000
api_key: "" # اختياري: رمز bearer للوكيل الوسيط المحلي لـ MetaClaw
skills:
enabled: true
dir: ~/.metaclaw/skills # دليل مكتبة المهارات الخاصة بك
retrieval_mode: template # template | embedding
top_k: 6
task_specific_top_k: 10 # الحد الأقصى للمهارات الخاصة بالمهمة (افتراضي 10)
auto_evolve: true # تلخيص المهارات تلقائيًا بعد كل جلسة
rl:
enabled: false # اضبط على true لتفعيل تدريب RL
backend: auto # "auto" | "tinker" | "mint" | "weaver"
model: moonshotai/Kimi-K2.5
api_key: ""
base_url: "" # نقطة نهاية خلفية اختيارية، مثل https://mint.macaron.xin/ لـ MinT أو https://weaver-console.nex-agi.cn لـ Weaver
tinker_api_key: "" # اسم مستعار متوافق لـ api_key
tinker_base_url: "" # اسم مستعار متوافق لـ base_url
prm_url: https://api.openai.com/v1
prm_model: gpt-5.2
prm_api_key: ""
lora_rank: 32
batch_size: 4
resume_from_ckpt: "" # اختياري: استئناف التدريب من نقطة تفتيش
evolver_api_base: "" # اتركه فارغًا لإعادة استخدام llm.api_base
evolver_api_key: ""
evolver_model: gpt-5.2
opd:
enabled: false # اضبط على true لتفعيل OPD (تقطير المعلّم)
teacher_url: "" # عنوان URL الأساسي لنموذج المعلّم (متوافق مع OpenAI /v1/completions)
teacher_model: "" # اسم نموذج المعلّم (مثل Qwen/Qwen3-32B)
teacher_api_key: "" # مفتاح API لنموذج المعلّم
kl_penalty_coef: 1.0 # معامل عقوبة KL لـ OPD
max_context_tokens: 20000 # حد رموز الموجه قبل الاقتطاع؛ 0 = بلا اقتطاع
# (موصى به في skills_only مع نماذج سحابية ذات سياق كبير)
context_window: 0 # نافذة السياق المبلَّغ عنها للوكيل (مثل عتبة ضغط OpenClaw)؛
# 0 = تلقائي (≈200000 في skills_only، 32768 في rl/auto)
scheduler: # v0.3: مُجدوِل التعلّم الفوقي (يُفعَّل تلقائيًا في وضع auto)
enabled: false # يُفعَّل تلقائيًا في وضع auto، يجب ضبطه يدويًا في وضع rl
sleep_start: "23:00"
sleep_end: "07:00"
idle_threshold_minutes: 30
min_window_minutes: 15
calendar:
enabled: false
credentials_path: ""
token_path: ""metaclaw start --mode skills_only
أخف وضع تشغيل. لا حاجة لـ GPU أو واجهة RL خلفية. يضع MetaClaw واجهة LLM الخاصة بك خلف وكيل وسيط يحقن المهارات ذات الصلة في كل دور محادثة، ثم يُلخّص مهارات جديدة تلقائيًا بعد كل محادثة.
لمزودين مخصصين متوافقين مع OpenAI، اضبط llm.api_base على عنوان قاعدة واجهة الدردشة الكامل (عادة ينتهي بـ /v1، مثل https://your-gateway.example/v1). في وضع skills_only، يعيد MetaClaw استخدام نقطة النهاية نفسها لضغط الموجه واستدعاءات نموذج اللغة المساعدة ما لم تُضبَط نقطة نهاية evolver منفصلة.
المهارات هي تعليمات Markdown قصيرة تُخزَّن في ~/.metaclaw/skills/ كملفات SKILL.md مستقلة. تنمو المكتبة تلقائيًا مع استخدامك.
لتحميل بنك المهارات المدمج مسبقًا (أكثر من 40 مهارة تشمل البرمجة والأمان ومهام الوكيل وغيرها):
cp -r memory_data/skills/* ~/.metaclaw/skills/metaclaw start --mode rl
كل ما في وضع المهارات، بالإضافة إلى الضبط الدقيق المستمر بالتعلّم المعزّز من المحادثات الحيّة. يتم تحويل كل دور محادثة إلى رموز وإرساله كعيّنة تدريب. يقوم نموذج LLM حكم (PRM) بتقييم الاستجابات بشكل غير متزامن، وتُجري واجهة خلفية متوافقة مع Tinker (مثل Tinker السحابي أو MinT أو Weaver) ضبطًا دقيقًا لـ LoRA مع تبديل الأوزان تلقائيًا.
Tinker:
metaclaw config rl.backend tinker
metaclaw config rl.api_key sk-...
metaclaw config rl.model moonshotai/Kimi-K2.5
metaclaw config rl.prm_url https://api.openai.com/v1
metaclaw config rl.prm_api_key sk-...
metaclaw start --mode rlMinT:
metaclaw config rl.backend mint
metaclaw config rl.api_key sk-mint-...
metaclaw config rl.base_url https://mint.macaron.xin/
metaclaw config rl.model Qwen/Qwen3-4B-Instruct-2507
metaclaw config rl.prm_url https://api.openai.com/v1
metaclaw config rl.prm_api_key sk-...
metaclaw start --mode rlWeaver:
metaclaw config rl.backend weaver
metaclaw config rl.api_key sk-...
metaclaw config rl.base_url https://weaver-console.nex-agi.cn
metaclaw config rl.model Qwen/Qwen3-8B
metaclaw config rl.prm_url https://api.openai.com/v1
metaclaw config rl.prm_api_key sk-...
metaclaw start --mode rlيستخرج نموذج LLM مُطوِّر مخصّص أيضًا مهارات جديدة من الحلقات الفاشلة ويُعيدها إلى مكتبة المهارات.
التنفيذ البرمجي (بدون واجهة OpenClaw TUI): اضبط openclaw_env_data_dir على دليل يحتوي ملفات مهام JSONL:
{"task_id": "task_1", "instruction": "Register the webhook at https://example.com/hook"}OPD إضافة اختيارية لوضع RL. يُقطّر نموذج معلّم أكبر إلى نموذج الطالب على السياسة: يُنشئ نموذج الطالب الاستجابات كالمعتاد، بينما يوفّر نموذج المعلّم احتمالات لوغاريتمية لكل رمز على نفس الاستجابات. تُوجّه عقوبة KL نموذج الطالب نحو توزيع المعلّم.
metaclaw config opd.enabled true
metaclaw config opd.teacher_url http://localhost:8082/v1
metaclaw config opd.teacher_model Qwen/Qwen3-32B
metaclaw config opd.kl_penalty_coef 1.0يجب نشر نموذج المعلّم خلف نقطة نهاية /v1/completions متوافقة مع OpenAI (مثل vLLM أو SGLang). يمكن الجمع بين OPD وتقييم PRM، حيث يعمل كلاهما بشكل غير متزامن. راجع examples/run_conversation_opd.py وscripts/run_openclaw_tinker_opd.sh.
metaclaw start
كل ما في وضع RL، بالإضافة إلى مُجدوِل تعلّم فوقي يؤجّل تحديثات الأوزان إلى فترات عدم نشاط المستخدم حتى لا يُقاطَع الوكيل أثناء الاستخدام النشط. هذا هو الوضع الافتراضي.
تُوقف خطوة تبديل أوزان RL الوكيل لعدة دقائق. بدلًا من التدريب فورًا عند اكتمال الدُّفعة (كما في وضع RL)، ينتظر وضع auto نافذة مناسبة.
ثلاثة شروط تُفعّل نافذة التحديث (أي شرط منها كافٍ):
- ساعات النوم: وقت بداية/نهاية قابل للتعديل (مثل 23:00 إلى 07:00)
- خمول لوحة المفاتيح: يُفعَّل بعد N دقيقة من عدم النشاط
- أحداث Google Calendar: يكتشف الاجتماعات لتشغيل التحديثات أثناء غيابك
metaclaw config scheduler.sleep_start "23:00"
metaclaw config scheduler.sleep_end "07:00"
metaclaw config scheduler.idle_threshold_minutes 30
# اختياري: تكامل Google Calendar
pip install -e ".[scheduler]"
metaclaw config scheduler.calendar.enabled true
metaclaw config scheduler.calendar.credentials_path ~/.metaclaw/client_secrets.jsonإذا عاد المستخدم أثناء التحديث، تُحفظ الدُّفعة الجزئية وتُستأنف في النافذة التالية.
يحمل كل ConversationSample علامة إصدار skill_generation. عندما يرفع تطوّر المهارات رقم الإصدار، يُفرَّغ مخزن RL المؤقت بحيث تُستخدم فقط العيّنات بعد التطوّر لتحديثات التدرّج (فصل مجموعات support/query في MAML).
metaclaw uninstallيحذف كل شيء في خطوة واحدة: يوقف المثيل قيد التشغيل، ينظف مراجع MetaClaw في ~/.openclaw/openclaw.json، يحذف ~/.openclaw/extensions/metaclaw-openclaw/، يحذف ~/.metaclaw/، يلغي تثبيت حزمة pip ويعيد تشغيل بوابة OpenClaw. يُطلب التأكيد قبل أي حذف.
بعد إلغاء التثبيت، احذف المستودع يدويًا إذا قمت باستنساخه:
rm -rf /path/to/MetaClaw@misc{xia2026metaclaw,
author = {Xia, Peng and Chen, Jianwen and Yang, Xinyu and Tu, Haoqin and Han, Siwei and Qiu, Shi and Zheng, Zeyu and Xie, Cihang and Yao, Huaxiu},
title = {MetaClaw: Just Talk --- An Agent That Meta-Learns and Evolves in the Wild},
year = {2026},
organization = {GitHub},
url = {https://github.com/aiming-lab/MetaClaw},
}MetaClaw مبني على المشاريع مفتوحة المصدر التالية:
- OpenClaw , إطار عمل الوكيل الأساسي.
- SkillRL , إطار عمل RL المُعزَّز بالمهارات.
- Tinker , يُستخدم لتدريب RL عبر الإنترنت.
- MinT , واجهة خلفية بديلة لتدريب RL عبر الإنترنت.
- Weaver , واجهة خلفية بديلة لتدريب RL عبر الإنترنت.
- OpenClaw-RL , مصدر إلهام لتصميم RL الخاص بنا.
- awesome-openclaw-skills , يوفّر الأساس لبنك المهارات الخاص بنا.
- NanoClaw , وكيل Claude الشخصي من qwibitai، يتصل عبر نقطة النهاية
/v1/messagesالمتوافقة مع Anthropic. - NemoClaw , مكوّن إضافي لوكيل OpenShell من NVIDIA للاستدلال.
هذا المشروع مرخّص بموجب ترخيص MIT.
