Tip
ヒント
以下では MCP (主にサーバー側を指す) と FunctionCall (主に OpenAI チャット規範の関数呼び出しを指す) を総称して「プラグイン」と呼び、迅速に理解できるようにします。
- モデル自体は関数や mcp サーバーを呼び出す能力を持っていません。
- 両者はリモートモデルに、クライアントがどのような追加機能を持っているか (例えば、天気プラグイン、データベースプラグイン、図を描くプラグイン) を伝え、モデルは現在の文脈 (現在の文) に基づいて、現在のシーンで特定のプラグインを実行すべきかどうか、またそのパラメータが何であるかを判断し、特別な応答を返し、その結果をクライアントに返します。
- モデル自体はさまざまな「テキスト」を返すだけです。
- クライアント (例えば CherryStudio、NextChat、openwebui) がモデルから特定の応答テキストを受け取った場合、クライアントはモデルの応答テキストに記載されたプラグインを実行します。もちろん、クライアントはモデルの特別な応答を完全に無視することもできます。
簡易的なプロセスは以下の通りです。
FunctionCall#
ローカルの天気を取得する例です。
リクエスト構造は以下の通りです:
functions
または tools
(最新の functions
の別名) を通じて、モデルに現在のクライアントが天気を取得する能力を持っていることを伝えます。
{
"messages": [
{
"role": "system",
"content": "あなたは役に立つアシスタントです。"
},
{
"role": "user",
"content": "今日は上海の天気はどうですか?湿度はどうですか?"
}
],
"functions": [
{
"name": "get_localtion_weather",
"description": "get_localtion_weather、特定の場所の現在の天気状況を取得します。",
"parameters": {
"type": "object",
"properties": {
"localtion": {
"type": "string",
"description": "localtion,場所"
},
"need_humidity":{
"type":"boolean",
"description":"湿度を返すかどうか、デフォルトはfalse"
}
},
"required": [
"localtion"
]
}
}
],
"function_call": "auto",
"temperature": 0.5,
"stream":false,
"model": "gpt-4o"
}
curl --location 'https://api.xxxxx.com/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer sk-xxxxx' \
--data '{
"messages": [
{
"role": "system",
"content": "あなたは役に立つアシスタントです。"
},
{
"role": "user",
"content": "今日は上海の天気はどうですか?湿度はどうですか?"
}
],
"functions": [
{
"name": "get_localtion_weather",
"description": "get_localtion_weather、特定の場所の現在の天気状況を取得します。",
"parameters": {
"type": "object",
"properties": {
"localtion": {
"type": "string",
"description": "localtion,場所"
},
"need_humidity":{
"type":"boolean",
"description":"湿度を返すかどうか、デフォルトはfalse"
}
},
"required": [
"localtion"
]
}
}
],
"function_call": "auto",
"temperature": 0.5,
"stream":false,
"model": "gpt-4o"
}'
応答構造は以下の通りです:
クライアントはローカルの get_localtion_weather
関数を実行します。
全体のプロセスは図のようになります (下の図は OpenAI の文書からの抜粋で、翻訳は没入型翻訳からのものです)。
MCP#
簡単に理解すると、functionCall は各自が自分のものを書くもので、統一された規約はなく、MCP は一種の紳士協定であり、mcpServer (天気プラグインを照会) は MCP プロトコルに従って開発され、mcpClient (カーソル) によって呼び出されます。本来は自分で関数を書く必要がありましたが、今では他人のライブラリを呼び出すことになりました。
MCP の重点は、MCP クライアント (Cherry Studio
) がどのように MCP サーバー ("プラグイン") を発見し、"プラグイン" が持つ能力を理解し、"プラグイン" を呼び出し、"プラグイン" の応答結果を取得するかです。
具体的には
- 現在持っているプラグイン機能をモデルに送信する (functions (別名 tools) の記述方法、プロンプト方式)
- MCP クライアント (
Cherry Studio
) がモデルの応答に基づいて "プラグイン" を実行するかどうか、どのプラグインを実行するかを判断するのはクライアント自身の定義です。 - MCP クライアントがプラグインの実行結果をモデルに返すことも、クライアント自身が定義できます。
以下の部分は、応用分野において、MCP の対話プロセスを例示したものであり、MCP という「紳士協定」について具体的に詳述したものではありません。
Cherry Studio
の例#
mcpServers の設定は以下の通りで、和風天気
のサーバーが一つだけあります。
出典:HeFeng Weather MCP Server | Glama
{
"mcpServers": {
"hefeng-weather": {
"isActive": true,
"command": "npx",
"args": [
"hefeng-mcp-weather@latest",
"--apiKey=key-123132131321"
]
}
}
}
対話は以下の通りです。
- ローカルでインターセプトされた最初のリクエストを確認すると、tools の記述方法を通じて、モデルにローカルがどのような「プラグイン」を持っているか、どのような能力を持っているかを伝えています。
{
"model": "gpt-4o",
"messages": [
{
"role": "user",
"content": "今日は上海の天気はどうですか?"
}
],
"temperature": 0.7,
"max_tokens": 2000,
"stream": true,
"tools": [
{
"type": "function",
"function": {
"name": "fd71edc4f65924613b9fd8330e78eb243",
"description": "中国国内の天気予報を取得します。",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "カンマ区切りの緯度経度情報 (例: 116.40,39.90)"
},
"days": {
"type": "string",
"enum": [
"now",
"24h",
"72h",
"168h",
"3d",
"7d",
"10d",
"15d",
"30d"
],
"description": "予報日数、now はリアルタイムの天気、24h は24時間予報、72h は72時間予報、168h は168時間予報、3d は3日予報、以降同様"
}
}
}
}
}
]
}
- 最初の応答を確認すると、モデルはプラグイン呼び出しを実行するかどうかを判断します。
モデルは「天気プラグイン」を使用する必要があると判断し、モデル自体は判断を行っただけです。
- MCP クライアント (
Cherry Studio
) は「天気プラグイン」を実行し、他人が書いたパッケージや API を呼び出したと簡単に考えることができます。 - 実行結果をモデルに返し、対話の文脈に追加します。
{
"model": "gpt-4o",
"messages": [
{
"role": "user",
"content": "今日は上海の天気はどうですか?"
},
{
"role": "assistant",
"tool_calls": [
{
"id": "call_M4eYNv6oPaLunpZLe1iWdfiK",
"function": {
"name": "fd71edc4f65924613b9fd8330e78eb243",
"arguments": "{\"days\":\"now\",\"location\":\"121,31\"}"
},
"type": "function"
}
]
},
{
"role": "tool",
"content": "[{\"type\":\"text\",\"text\":\"場所: 121,31\\n観測時間: 2025-03-27T16:51+08:00\\n天気: 曇り\\n温度: 13°C\\n体感温度: 12°C\\n風向: 東北風\\n風力: 1級\"}]",
"tool_call_id": "call_M4eYNv6oPaLunpZLe1iWdfiK"
}
],
"temperature": 0.7,
"max_tokens": 2000,
"stream": true,
"tools": [
{
"type": "function",
"function": {
"name": "fd71edc4f65924613b9fd8330e78eb243",
"description": "中国国内の天気予報を取得します。",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "カンマ区切りの緯度経度情報 (例: 116.40,39.90)"
},
"days": {
"type": "string",
"enum": [
"now",
"24h",
"72h",
"168h",
"3d",
"7d",
"10d",
"15d",
"30d"
],
"description": "予報日数、now はリアルタイムの天気、24h は24時間予報、72h は72時間予報、168h は168時間予報、3d は3日予報、以降同様"
}
}
}
}
}
]
}
- モデルは文脈 (送信された対話履歴) を基に応答します。
その一部を抜粋します。
Cherry Studio
は functionCall の方式を通じて、どの「プラグイン」の機能を実行すべきかを判断します。
カスタムプロトコル (システムプロンプトの方式を使用)#
あなたはインテリジェントなアシスタントであり、MCP 機能を持っています。MCP はローカル機能プラグインと理解できます。ユーザーの文がプラグインを呼び出す必要がある場合、以下の規定に従って厳密に応答を返す必要があります。規定は以下の通りです:
<plug>
<pn>プラグイン名</pn>
<fn>関数名(機能名)</fn>
<arg1>パラメータ</arg1>
<arg2>パラメータ2<arg2>
<arg3>パラメータ3<arg3>
<plug/>。
ローカルで特定のプラグインが実行された後、結果は以下の形式で返されます。
<tool_res>
<plug>
<pn>プラグイン名</pn>
<fn>関数名(機能名)</fn>
<res>実行結果<res/>
<plug/>
<tool_res/>
現在のローカルプラグイン:
1. プラグイン名:get_localtion_weather
説明:特定の場所の天気を照会するプラグイン
機能:
- query_now_weather:
args:
location:string,必須,照会地点
need_humidity:boolean,非必須,デフォルトはfalse,湿度を返すかどうか
図に示されているのは ChatBox
であり、他のクライアントは <xx><xx/>
を処理し、表示できません。