# Ein benutzerdefiniertes KI-Modell hinzufügen

## ![](https://578823411-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FRpUu5iMlzMFAudyBvMOl%2Fuploads%2FG5ZbxX918xOHwbAwAJ4n%2FSummary2-Small-Icon.svg?alt=media\&token=da26a67f-ff7f-47b3-8669-06be960dc2d7) Übersicht

Dieser Artikel erklärt, wie Sie ein benutzerdefiniertes KI-Modell mit DevOps verbinden und dabei Flosums gemeinsam genutzte KI-Ressourcen ersetzen. Die Verwendung Ihres eigenen Modells kann die Leistung verbessern, die Latenz verringern und dazu beitragen, vorübergehende Fehler zu vermeiden, die durch hohe Auslastung von Flosums gemeinsam genutzten KI-Ressourcen verursacht werden. Ein selbst gehostetes Modell kann außerdem eine stärkere Informationssicherheit bieten als Cloud-KI-Anbieter. Abhängig vom Anbieter und dem von Ihnen gewählten Modell können Sie Verbesserungen bei Geschwindigkeit und Zuverlässigkeit feststellen. Zum Verbinden benötigen Sie ein API-Token von Ihrem gewählten Anbieter. Weitere Informationen zu den KI-Funktionen in DevOps finden Sie im folgenden Artikel.

* [ubersicht-uber-ki-funktionen](https://docs.flosum.com/devops/devops-de/einstellungen/ki-einstellungen/ubersicht-uber-ki-funktionen "mention")

{% hint style="info" %}

#### Best Practices

* Validieren Sie Ihre Konfiguration für das benutzerdefinierte KI-Modell in einem Nicht-Produktions-Branch, bevor Sie sie breiter ausrollen.
* Verwenden Sie einen API-Endpunkt eines KI-Modellanbieters, der Ihren Sicherheitsanforderungen entspricht (Cloud vs. selbst gehostet).
* Speichern Sie Ihr API-Token sicher und rotieren Sie es gemäß Ihren Sicherheitsanforderungen.
  {% endhint %}

### Unterstützte KI-Modelle

## Hinzufügen eines benutzerdefinierten Modells

{% stepper %}
{% step %}

### Benutzerdefiniertes Modell aufrufen

1. Klicken Sie auf **Einstellungen** im Menü der linken Seitenleiste.
2. Klicken Sie auf die **Allgemein** Registerkarte.
3. Klicken Sie auf **KI-Einstellungen**.

   <div align="left"><figure><img src="https://578823411-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FRpUu5iMlzMFAudyBvMOl%2Fuploads%2F4ttPCgSU5HP1IPyvoqYJ%2FAddingACustomAiModel-S01-01.png?alt=media&#x26;token=f69f004f-466a-4b97-9dc3-ebf029cf924c" alt="" width="563"><figcaption></figcaption></figure></div>

{% endstep %}

{% step %}

### Benutzerdefiniertes Modell aktivieren

1. Aktivieren Sie den **Benutzerdefiniertes Modell** Schalter.

   <div align="left"><figure><img src="https://578823411-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FRpUu5iMlzMFAudyBvMOl%2Fuploads%2Fofv151HeCuDIiIukdNut%2FAddingACustomAiModel-S02-01.png?alt=media&#x26;token=42bcde25-985b-4d60-80d6-806305804745" alt="" width="563"><figcaption></figcaption></figure></div>
2. Klicken Sie auf die **Modell** Dropdown-Menü.

   <div align="left"><figure><img src="https://578823411-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FRpUu5iMlzMFAudyBvMOl%2Fuploads%2FTAmUyHgwM6MVUp12MAj9%2FAddingACustomAiModel-S02-02.png?alt=media&#x26;token=ae1b724c-cf90-42aa-899c-787f4906dc4a" alt="" width="563"><figcaption></figcaption></figure></div>
3. Wählen Sie das KI-Modell aus, mit dem Sie eine Verbindung herstellen.

   <div align="left"><figure><img src="https://578823411-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FRpUu5iMlzMFAudyBvMOl%2Fuploads%2F86nH2jjAtyuBxtWRkir8%2FAddingACustomAiModel-S02-03.png?alt=media&#x26;token=8c543004-9cbe-420e-a2aa-f847dc29d8df" alt="" width="563"><figcaption></figcaption></figure></div>
4. Geben Sie im **API-URL** Textfeld die Endpunkt-URL des KI-Modells ein, mit dem Sie eine Verbindung herstellen.

{% hint style="info" %}

#### API-URL

**DeepSeek-API-Endpunkt**

Sie können eine Verbindung zu einem von DeepSeek gehosteten DeepSeek-Modell über die folgende URL herstellen:

* <https://api.deepseek.com>

**OpenAI-API-Endpunkt**

Sie können eine Verbindung zu einem von OpenAI gehosteten GPT-Modell über die folgende URL herstellen:

* <https://api.openai.com/v1>

**API-Endpunkt eines Drittanbieters oder selbst gehosteter API-Endpunkt**

Sie können eine Verbindung zu jedem KI-Modell eines Drittanbieters oder selbst gehosteten KI-Modell herstellen, das einen mit OpenAI kompatiblen API-Endpunkt verwendet. Die API-URL muss von Flosums Servern aus erreichbar sein.
{% endhint %}

5. Geben Sie im **Token** Textfeld, geben Sie Ihr API-Token für die Verbindung mit dem KI-Modell ein.

   <div align="left"><figure><img src="https://578823411-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FRpUu5iMlzMFAudyBvMOl%2Fuploads%2Fs5BINaUQSDNfQjxllgfw%2FAddingACustomAiModel-S02-04.png?alt=media&#x26;token=63144fa0-4e71-4090-ba50-c4868c98632d" alt="" width="563"><figcaption></figcaption></figure></div>
6. Klicken Sie auf **Speichern**.

   <div align="left"><figure><img src="https://578823411-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FRpUu5iMlzMFAudyBvMOl%2Fuploads%2FnF10iwJbDWP9zafv50mm%2FAddingACustomAiModel-S02-05.png?alt=media&#x26;token=c0c93ab0-3020-40cc-bd8a-c2bec84ec09b" alt="" width="563"><figcaption></figcaption></figure></div>
7. Wenn die Verbindung mit dem KI-Modell erfolgreich ist, wird die Meldung "**KI-Modell erfolgreich konfiguriert." angezeigt.**"
   {% endstep %}

{% step %}

### KI-Funktionen verwenden

Anweisungen zur Verwendung der KI-Funktionen von DevOps finden Sie in den folgenden Artikeln:

* KI-Testklassenersteller
* KI-Code-Dokumentierer
  {% endstep %}
  {% endstepper %}
