コンテンツにスキップ

AI SDK で任意モデルを指定

標準で Agents SDK は Responses API または Chat Completions API を通じて OpenAI のモデルと連携します。別のモデルを使いたい場合は、Vercel’s AI SDK がサポートする幅広いモデルを、このアダプター経由で Agents SDK に取り込むことができます。

  1. 拡張パッケージをインストールして AI SDK アダプターを導入します:

    Terminal window
    npm install @openai/agents-extensions
  2. Vercel’s AI SDK の一覧から目的のモデルパッケージを選び、インストールします:

    Terminal window
    npm install @ai-sdk/openai@"^1.0.0"
  3. アダプターとモデルをインポートしてエージェントに接続します:

    import { openai } from '@ai-sdk/openai';
    import { aisdk } from '@openai/agents-extensions';
  4. エージェントが使用するモデルのインスタンスを初期化します:

    const model = aisdk(openai('o4-mini'));
AI SDK セットアップ
import { Agent, run } from '@openai/agents';
// Import the model package you installed
import { openai } from '@ai-sdk/openai';
// Import the adapter
import { aisdk } from '@openai/agents-extensions';
// Create a model instance to be used by the agent
const model = aisdk(openai('o4-mini'));
// Create an agent with the model
const agent = new Agent({
name: 'My Agent',
instructions: 'You are a helpful assistant.',
model,
});
// Run the agent with the new model
run(agent, 'What is the capital of Germany?');

プロバイダーのメタデータの受け渡し

Section titled “プロバイダーのメタデータの受け渡し”

メッセージにプロバイダー固有のオプションを送る必要がある場合は、providerMetadata を通して渡します。値は基盤の AI SDK モデルにそのままフォワードされます。たとえば Agents SDK で以下の providerData

providerData: {
anthropic: {
cacheControl: {
type: 'ephemeral';
}
}
}

は、AI SDK 連携を使用する場合、次のようになります

providerMetadata: {
anthropic: {
cacheControl: {
type: 'ephemeral';
}
}
}