# カスタム AI モデルの追加

## ![](https://225042527-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FRpUu5iMlzMFAudyBvMOl%2Fuploads%2FG5ZbxX918xOHwbAwAJ4n%2FSummary2-Small-Icon.svg?alt=media\&token=da26a67f-ff7f-47b3-8669-06be960dc2d7) 概要

この記事では、Flosum の共有 AI リソースを置き換えて、カスタム AI モデルを DevOps に接続する方法を説明します。独自のモデルを使用すると、パフォーマンスの向上、レイテンシの削減、そして Flosum の共有 AI リソースへの高負荷によって発生する一時的なエラーの防止に役立ちます。セルフホスト型モデルは、クラウド AI プロバイダーよりも強力な情報セキュリティを提供する場合もあります。選択するプロバイダーとモデルによっては、速度と信頼性の改善が見られることがあります。接続するには、選択したプロバイダーから API トークンが必要です。DevOps の AI 機能の詳細については、次の記事を参照してください。

* [ai-no](https://docs.flosum.com/devops/devops-ja/she-ding/ai-she-ding/ai-no "mention")

{% hint style="info" %}

#### ベストプラクティス

* カスタム AI モデルの設定を本番以外のブランチで検証してから、より広く展開してください。
* セキュリティ要件（クラウド vs セルフホスト）を満たす AI モデルプロバイダーの API エンドポイントを使用してください。
* API トークンは安全に保管し、セキュリティ要件に基づいてローテーションしてください。
  {% endhint %}

### 対応 AI モデル

## カスタムモデルの追加

{% stepper %}
{% step %}

### カスタムモデルにアクセス

1. クリック **設定** を左側のサイドバーメニューから選択します。
2. をクリックします。 **一般** タブ。
3. クリック **AI 設定**.

   <div align="left"><figure><img src="https://225042527-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FRpUu5iMlzMFAudyBvMOl%2Fuploads%2F4ttPCgSU5HP1IPyvoqYJ%2FAddingACustomAiModel-S01-01.png?alt=media&#x26;token=f69f004f-466a-4b97-9dc3-ebf029cf924c" alt="" width="563"><figcaption></figcaption></figure></div>

{% endstep %}

{% step %}

### カスタムモデルを有効にする

1. を有効にします。 **カスタムモデル** トグル。

   <div align="left"><figure><img src="https://225042527-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FRpUu5iMlzMFAudyBvMOl%2Fuploads%2Fofv151HeCuDIiIukdNut%2FAddingACustomAiModel-S02-01.png?alt=media&#x26;token=42bcde25-985b-4d60-80d6-806305804745" alt="" width="563"><figcaption></figcaption></figure></div>
2. をクリックします。 **モデル** ドロップダウンメニュー。

   <div align="left"><figure><img src="https://225042527-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FRpUu5iMlzMFAudyBvMOl%2Fuploads%2FTAmUyHgwM6MVUp12MAj9%2FAddingACustomAiModel-S02-02.png?alt=media&#x26;token=ae1b724c-cf90-42aa-899c-787f4906dc4a" alt="" width="563"><figcaption></figcaption></figure></div>
3. 接続する AI モデルを選択します。

   <div align="left"><figure><img src="https://225042527-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FRpUu5iMlzMFAudyBvMOl%2Fuploads%2F86nH2jjAtyuBxtWRkir8%2FAddingACustomAiModel-S02-03.png?alt=media&#x26;token=8c543004-9cbe-420e-a2aa-f847dc29d8df" alt="" width="563"><figcaption></figcaption></figure></div>
4. で **Api Url** テキストボックスに、接続する AI モデルのエンドポイント URL を入力します。

{% hint style="info" %}

#### API URL

**DeepSeek API エンドポイント**

次の URL を使用して、DeepSeek がホストする DeepSeek モデルに接続できます。

* <https://api.deepseek.com>

**OpenAI API エンドポイント**

次の URL を使用して、OpenAI がホストする GPT モデルに接続できます。

* <https://api.openai.com/v1>

**サードパーティまたはセルフホスト型 API エンドポイント**

OpenAI 互換の API エンドポイントを使用する、サードパーティまたはセルフホスト型の AI モデルに接続できます。API URL は Flosum のサーバーからアクセス可能である必要があります。
{% endhint %}

5. で **トークン** テキストボックスに、AI モデルに接続するための API トークンを入力します。

   <div align="left"><figure><img src="https://225042527-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FRpUu5iMlzMFAudyBvMOl%2Fuploads%2Fs5BINaUQSDNfQjxllgfw%2FAddingACustomAiModel-S02-04.png?alt=media&#x26;token=63144fa0-4e71-4090-ba50-c4868c98632d" alt="" width="563"><figcaption></figcaption></figure></div>
6. クリック **保存**.

   <div align="left"><figure><img src="https://225042527-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FRpUu5iMlzMFAudyBvMOl%2Fuploads%2FnF10iwJbDWP9zafv50mm%2FAddingACustomAiModel-S02-05.png?alt=media&#x26;token=c0c93ab0-3020-40cc-bd8a-c2bec84ec09b" alt="" width="563"><figcaption></figcaption></figure></div>
7. AI モデルへの接続に成功すると、メッセージ「**AI モデルが正常に設定されました。**"
   {% endstep %}

{% step %}

### AI 機能の使用

DevOps の AI 機能の使用方法については、次の記事を参照してください。

* AI テストクラス作成
* AI コードドキュメンター
  {% endstep %}
  {% endstepper %}
