QUIVer API
分散AI推論をシンプルなAPIで。
署名付きレシートで結果を検証可能。
クイックスタート
テスト用APIキー
このキーはテスト用です。本番利用にはダッシュボードから発行してください。
コードサンプル
// QUIVer API クライアントの初期化
import { QUIVerClient } from '@quiver/sdk';
const client = new QUIVerClient({
apiKey: 'test_pk_quiver_1234567890abcdef'
});
// 推論の実行
const response = await client.inference.create({
model: 'llama3.2:3b',
prompt: '量子コンピューターについて200文字で説明してください',
maxTokens: 256,
temperature: 0.7
});
// 結果と計算レシートの確認
console.log('結果:', response.completion);
console.log('レシート:', response.receipt);
console.log('署名:', response.receipt.signature);
// ストリーミングレスポンス
const stream = await client.inference.stream({
model: 'llama3.2:3b',
prompt: '長い物語を書いてください',
stream: true
});
for await (const chunk of stream) {
process.stdout.write(chunk.text);
}
# QUIVer API クライアントの初期化
from quiver import QUIVerClient
client = QUIVerClient(
api_key='test_pk_quiver_1234567890abcdef'
)
# 推論の実行
response = client.inference.create(
model='llama3.2:3b',
prompt='量子コンピューターについて200文字で説明してください',
max_tokens=256,
temperature=0.7
)
# 結果と計算レシートの確認
print(f'結果: {response.completion}')
print(f'レシート: {response.receipt}')
print(f'署名: {response.receipt.signature}')
// QUIVer API クライアントの初期化
package main
import (
"fmt"
"github.com/quiver/go-sdk"
)
func main() {
client := quiver.NewClient("test_pk_quiver_1234567890abcdef")
// 推論の実行
resp, err := client.Inference.Create(&quiver.InferenceRequest{
Model: "llama3.2:3b",
Prompt: "量子コンピューターについて200文字で説明してください",
MaxTokens: 256,
Temperature: 0.7,
})
if err != nil {
panic(err)
}
// 結果と計算レシートの確認
fmt.Printf("結果: %s\n", resp.Completion)
fmt.Printf("署名: %s\n", resp.Receipt.Signature)
}
# 基本的な推論リクエスト
curl -X POST https://api.quiver.network/v1/inference \
-H "Authorization: Bearer test_pk_quiver_1234567890abcdef" \
-H "Content-Type: application/json" \
-d '{
"model": "llama3.2:3b",
"prompt": "量子コンピューターについて200文字で説明してください",
"max_tokens": 256,
"temperature": 0.7
}'
# ストリーミングレスポンス
curl -X POST https://api.quiver.network/v1/inference \
-H "Authorization: Bearer test_pk_quiver_1234567890abcdef" \
-H "Content-Type: application/json" \
-H "Accept: text/event-stream" \
-d '{
"model": "llama3.2:3b",
"prompt": "長い物語を書いてください",
"stream": true
}'
料金体系
モデル | 入力料金 | 出力料金 | 最小料金 |
---|---|---|---|
llama3.2:1b | $0.0001 / 1K tokens | $0.0002 / 1K tokens | $0.00001 |
llama3.2:3b | $0.0002 / 1K tokens | $0.0004 / 1K tokens | $0.00002 |
qwen2.5:3b | $0.0002 / 1K tokens | $0.0004 / 1K tokens | $0.00002 |
stable-diffusion | $0.002 / 画像 | - | $0.002 |
料金は需要と供給により変動します。上記は参考価格です。
事前見積もりAPIで実際の料金を確認できます。