
Sign up to save your podcasts
Or
OpenAI Agents SDKにおけるMCP(Model Context Protocol)は、LLM(大規模言語モデル)が外部ツールやデータソースにアクセスするための標準化されたプロトコルです。MCPは、AIアプリケーションにおけるUSB-Cポートのように、LLMと様々なツールを接続する共通のインターフェースを提供します。
MCPサーバーには、ローカルで動作するstdioサーバーと、URL経由で接続するHTTP over SSEサーバーの2種類があります。Agents SDKでは、MCPServerStdioとMCPServerSseクラスを使ってこれらのサーバーに接続できます。
MCPサーバーをAgentに追加することで、Agentはサーバーのツールを認識し、必要に応じて呼び出すことができます。list_tools()でツール一覧を取得し、call_tool()でツールを実行します。
ツールリストはキャッシュすることも可能です。ツールリストが変更されないことが確実な場合に、cache_tools_list=Trueを設定することで、レイテンシを改善できます。キャッシュを無効化する場合は、invalidate_tools_cache()を呼び出します。
引用元: https://openai.github.io/openai-agents-python/mcp/
LLMの品質保証は、従来のシステム開発とは異なり、事前の網羅的なテストだけでは不十分です。重要なのは、品質を継続的にモニタリングし、改善していく運用戦略です。
引用元: https://tech.algomatic.jp/entry/2025/03/26/182954
中国のDeepSeek V3が、AIのベンチマークでOpenAIやGoogleを上回り、非推論モデルでトップに。DeepSeek V3はオープンソースで、高速かつ低コストなのが特徴。推論モデルではないため大規模データ向けではないものの、多くのタスクで実用的な点が強みです。中国AI企業がオープンソース戦略で米国に対抗する構図が見えます。
引用元: https://japan.cnet.com/article/35230944/
(株式会社ずんだもんは架空の登場組織です)
OpenAI Agents SDKにおけるMCP(Model Context Protocol)は、LLM(大規模言語モデル)が外部ツールやデータソースにアクセスするための標準化されたプロトコルです。MCPは、AIアプリケーションにおけるUSB-Cポートのように、LLMと様々なツールを接続する共通のインターフェースを提供します。
MCPサーバーには、ローカルで動作するstdioサーバーと、URL経由で接続するHTTP over SSEサーバーの2種類があります。Agents SDKでは、MCPServerStdioとMCPServerSseクラスを使ってこれらのサーバーに接続できます。
MCPサーバーをAgentに追加することで、Agentはサーバーのツールを認識し、必要に応じて呼び出すことができます。list_tools()でツール一覧を取得し、call_tool()でツールを実行します。
ツールリストはキャッシュすることも可能です。ツールリストが変更されないことが確実な場合に、cache_tools_list=Trueを設定することで、レイテンシを改善できます。キャッシュを無効化する場合は、invalidate_tools_cache()を呼び出します。
引用元: https://openai.github.io/openai-agents-python/mcp/
LLMの品質保証は、従来のシステム開発とは異なり、事前の網羅的なテストだけでは不十分です。重要なのは、品質を継続的にモニタリングし、改善していく運用戦略です。
引用元: https://tech.algomatic.jp/entry/2025/03/26/182954
中国のDeepSeek V3が、AIのベンチマークでOpenAIやGoogleを上回り、非推論モデルでトップに。DeepSeek V3はオープンソースで、高速かつ低コストなのが特徴。推論モデルではないため大規模データ向けではないものの、多くのタスクで実用的な点が強みです。中国AI企業がオープンソース戦略で米国に対抗する構図が見えます。
引用元: https://japan.cnet.com/article/35230944/
(株式会社ずんだもんは架空の登場組織です)