Zum Hauptinhalt springen

Verwendung von benutzerdefinierten Modellen in Cursor

Dieser Leitfaden erklärt, wie Sie benutzerdefinierte KI-Modelle in Cursor integrieren und verwenden können, um verschiedene KI-Funktionen für Ihren Entwicklungsworkflow zu nutzen.

Unterstützte Modelltypen

Cursor unterstützt verschiedene KI-Modell-Integrationen:

  1. OpenAI-kompatible Modelle

    • Anthropic Claude
    • DeepSeek
    • Mistral
    • Lokale LLMs
  2. Benutzerdefinierte API-Endpunkte

    • Selbst gehostete Modelle
    • Cloud-API-Dienste
    • Benutzerdefinierte Implementierungen

Grundkonfiguration

Einrichten benutzerdefinierter Modelle

  1. Öffnen Sie die Cursor-Einstellungen
  2. Navigieren Sie zum Abschnitt KI-Modelle
  3. Fügen Sie eine neue Modellkonfiguration hinzu:
{
"models": {
"custom-model": {
"name": "Ihr Modellname",
"apiKey": "ihr-api-schlüssel",
"baseUrl": "https://api.ihr-modell-endpunkt.com/v1",
"contextLength": 8192,
"temperature": 0.7
}
}
}

Konfigurationsparameter

ParameterBeschreibungStandard
nameAnzeigename für das ModellErforderlich
apiKeyAPI-AuthentifizierungsschlüsselErforderlich
baseUrlAPI-Endpunkt-URLErforderlich
contextLengthMaximales Kontextfenster4096
temperatureAntwort-Zufälligkeit0.7

Modellintegration

OpenAI-kompatible Modelle

{
"models": {
"custom-gpt": {
"name": "Benutzerdefiniertes GPT",
"apiKey": "${OPENAI_API_KEY}",
"baseUrl": "https://api.openai.com/v1",
"model": "gpt-4",
"contextLength": 8192
}
}
}

Anthropic Claude Einrichtung

{
"models": {
"claude": {
"name": "Claude",
"apiKey": "${ANTHROPIC_API_KEY}",
"baseUrl": "https://api.anthropic.com/v1",
"model": "claude-2",
"contextLength": 100000
}
}
}

Lokale Modellkonfiguration

{
"models": {
"local-llm": {
"name": "Lokales LLM",
"baseUrl": "http://localhost:8000",
"contextLength": 4096,
"useDocker": true
}
}
}

Erweiterte Einstellungen

Modellverhalten

Konfigurieren Sie das Modellverhalten:

{
"models": {
"custom-model": {
"settings": {
"temperature": 0.7,
"topP": 0.9,
"frequencyPenalty": 0.0,
"presencePenalty": 0.0,
"stopSequences": ["```", "###"]
}
}
}
}

Antwortformatierung

{
"models": {
"custom-model": {
"formatting": {
"trimWhitespace": true,
"removeNewlines": false,
"maxTokens": 1000
}
}
}
}

Modellspezifische Funktionen

Code-Vervollständigung

{
"models": {
"code-model": {
"features": {
"codeCompletion": true,
"contextAware": true,
"multiFile": true
}
}
}
}

Chat-Fähigkeiten

{
"models": {
"chat-model": {
"features": {
"chat": true,
"systemPrompts": true,
"streaming": true
}
}
}
}

Leistungsoptimierung

Cache-Einstellungen

{
"models": {
"custom-model": {
"cache": {
"enabled": true,
"maxSize": "1GB",
"ttl": 3600
}
}
}
}

Ratenbegrenzung

{
"models": {
"custom-model": {
"rateLimit": {
"requestsPerMinute": 60,
"tokensPerMinute": 90000,
"concurrent": 5
}
}
}
}

Fehlerbehebung

Häufige Probleme

  1. Verbindungsprobleme

    • API-Endpunkt überprüfen
    • Netzwerkverbindung prüfen
    • API-Schlüssel validieren
  2. Antwortfehler

    • Modellkompatibilität prüfen
    • Anforderungsformat überprüfen
    • Fehlermeldungen überprüfen
  3. Leistungsprobleme

    • Kontextlänge optimieren
    • Cache-Einstellungen anpassen
    • Ratenlimits überwachen

Beste Praktiken

Sicherheit

  1. API-Schlüssel-Verwaltung

    • Umgebungsvariablen verwenden
    • Schlüssel regelmäßig rotieren
    • Zugriffskontrollen implementieren
  2. Anforderungsvalidierung

    • Eingaben bereinigen
    • Antworten validieren
    • Fehler elegant behandeln

Leistung

  1. Kontextoptimierung

    • Kontextgröße minimieren
    • Relevante Informationen priorisieren
    • Cache effektiv nutzen
  2. Ressourcenmanagement

    • Parallele Anfragen begrenzen
    • Speichernutzung überwachen
    • Antwortzeiten optimieren