Worker Network
社群 Worker 網路 暫停使用
BazaarLink Worker 網路讓任何人都能貢獻算力 — 本機 GPU、家用伺服器或雲端 VM — 並透過服務推論請求賺取點數獎勵。社群模型與雲端模型並列於 API,定價低於標準費率。
呼叫社群模型
社群模型在 model ID 中使用 community/ 前綴。API 完全相容 OpenAI — 只需更換模型名稱。
列出可用的社群模型
/api/v1/models社群模型會出現在模型列表中,ID 以 community/ 開頭。
curl https://bazaarlink.ai/api/v1/models \
-H "Authorization: Bearer sk-bl-YOUR_API_KEY" \
| jq '.data[] | select(.id | startswith("community/"))'發送 Chat Completion 請求
curl https://bazaarlink.ai/api/v1/chat/completions \
-H "Authorization: Bearer sk-bl-YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "community/qwen2.5:2b",
"messages": [{"role": "user", "content": "Hello!"}]
}'串流
社群模型支援串流回應,與雲端模型完全相同:
response = client.chat.completions.create(
model="community/qwen2.5:2b",
messages=[{"role": "user", "content": "Count to 10 slowly"}],
stream=True,
)
for chunk in response:
delta = chunk.choices[0].delta.content or ""
print(delta, end="", flush=True)架設 Worker 節點
只需三個步驟將算力加入網路:安裝 Ollama、安裝 Worker CLI,再連接 Gateway。
第一步 — 前置條件
# Pull the model you plan to serve ollama pull qwen2.5:2b # Verify Ollama is running ollama list
第二步 — 安裝 Worker CLI
npm install -g bazaarlink-worker # Or run directly without installing npx bazaarlink-worker --help
第三步 — 註冊
向平台註冊你的 Email。完成 Email 驗證後,系統會自動核發 Worker 金鑰(wk_...)並寄送至你的信箱。
bazaarlink-worker register \ --email your@email.com \ --models qwen2.5:2b \ --max-concurrent 4
第四步 — 用 Worker 金鑰登入
使用收到的 Worker 金鑰(wk_...)進行身份驗證並設定你的定價:
bazaarlink-worker login \ --key wk_YOUR_WORKER_KEY \ --gateway wss://gateway.bazaarlink.ai \ --models qwen2.5:2b \ --ollama-url http://localhost:11434 \ --input-price 0.10 \ --output-price 0.20
第五步 — 開始服務
bazaarlink-worker start
Worker 透過 WebSocket 連接 Gateway,開始接收推論任務。請保持程序持續運行(正式環境建議使用 PM2 或 systemd)。
# Check status bazaarlink-worker status # Run as background service with PM2 npm install -g pm2 pm2 start "bazaarlink-worker start" --name bazaarlink-worker pm2 save
定價與獎勵
社群模型定價分兩層:向用戶收取的平台價,以及支付給 Worker 的獎勵。兩者均以每百萬 token 的 USD 計算。
平台保留差額(利潤)。你的定價不得超過平台設定的上限。若超出,Gateway 會拒絕連線並回傳錯誤。
範例
Platform price: $0.005 / 1M prompt tokens Max worker price: $0.004 / 1M prompt tokens (set by platform ceiling) You set --input-price 0.004 ✓ accepted You set --input-price 0.005 ✗ rejected (exceeds ceiling)
獎勵如何發放
每完成一筆請求,獎勵即計入你的 BazaarLink 帳戶餘額。獎勵金額 = 你的定價 × 服務的 token 數。累積的點數可用於任何 BazaarLink API 呼叫,或未來可提領(功能開發中)。
資料與隱私
當你的節點連線時,它會處理來自 BazaarLink 用戶的 API 請求。在加入之前,了解哪些資料會流經你的節點非常重要。
哪些資料會流經你的節點
- 分配給你節點的每筆請求的用戶提示訊息與對話紀錄。
- 模型名稱與生成參數(temperature、max tokens 等)。
- 每筆工作完成後回報給平台的 token 數量。
哪些資料不會流經你的節點
- 用戶身份、API 金鑰或帳號資訊——這些資料絕不會傳送給 Worker。
- 付款或帳單資料。
- 其他用戶的請求——每筆工作單獨派送。
平台審核與內容過濾
平台對每筆社群請求均套用進入與輸出內容過濾。包含偵測到的機密資訊(API 金鑰、token)或提示注入模式的 prompt,可能在到達你的節點之前即被攔截。回應內容在轉發給用戶之前同樣會經過掃描。
提供者驗證
加入 Worker 網路前,平台會對節點進行多層驗證:確認硬體機種與資源規格、並透過 AI 智能品質探測(Speed Probe + Quality Probe),確保節點能提供符合標準的模型回應。探測未通過的節點不會收到實際流量。
你作為節點營運者的義務
- 除 Ollama 推論所需外,請勿記錄或儲存用戶提示內容。
- 請勿將用戶提示用於訓練或分析。
- 只在你控制且信任的硬體上執行節點。
- 若發現任何疑似資料問題,請向平台管理員回報。