Verwendung von benutzerdefinierten Modellen in Cursor
Dieser Leitfaden erklärt, wie Sie benutzerdefinierte KI-Modelle in Cursor integrieren und verwenden können, um verschiedene KI-Funktionen für Ihren Entwicklungsworkflow zu nutzen.
Unterstützte Modelltypen
Cursor unterstützt verschiedene KI-Modell-Integrationen:
-
OpenAI-kompatible Modelle
- Anthropic Claude
- DeepSeek
- Mistral
- Lokale LLMs
-
Benutzerdefinierte API-Endpunkte
- Selbst gehostete Modelle
- Cloud-API-Dienste
- Benutzerdefinierte Implementierungen
Grundkonfiguration
Einrichten benutzerdefinierter Modelle
- Öffnen Sie die Cursor-Einstellungen
- Navigieren Sie zum Abschnitt KI-Modelle
- Fügen Sie eine neue Modellkonfiguration hinzu:
{
"models": {
"custom-model": {
"name": "Ihr Modellname",
"apiKey": "ihr-api-schlüssel",
"baseUrl": "https://api.ihr-modell-endpunkt.com/v1",
"contextLength": 8192,
"temperature": 0.7
}
}
}
Konfigurationsparameter
Parameter | Beschreibung | Standard |
---|---|---|
name | Anzeigename für das Modell | Erforderlich |
apiKey | API-Authentifizierungsschlüssel | Erforderlich |
baseUrl | API-Endpunkt-URL | Erforderlich |
contextLength | Maximales Kontextfenster | 4096 |
temperature | Antwort-Zufälligkeit | 0.7 |
Modellintegration
OpenAI-kompatible Modelle
{
"models": {
"custom-gpt": {
"name": "Benutzerdefiniertes GPT",
"apiKey": "${OPENAI_API_KEY}",
"baseUrl": "https://api.openai.com/v1",
"model": "gpt-4",
"contextLength": 8192
}
}
}
Anthropic Claude Einrichtung
{
"models": {
"claude": {
"name": "Claude",
"apiKey": "${ANTHROPIC_API_KEY}",
"baseUrl": "https://api.anthropic.com/v1",
"model": "claude-2",
"contextLength": 100000
}
}
}
Lokale Modellkonfiguration
{
"models": {
"local-llm": {
"name": "Lokales LLM",
"baseUrl": "http://localhost:8000",
"contextLength": 4096,
"useDocker": true
}
}
}
Erweiterte Einstellungen
Modellverhalten
Konfigurieren Sie das Modellverhalten:
{
"models": {
"custom-model": {
"settings": {
"temperature": 0.7,
"topP": 0.9,
"frequencyPenalty": 0.0,
"presencePenalty": 0.0,
"stopSequences": ["```", "###"]
}
}
}
}
Antwortformatierung
{
"models": {
"custom-model": {
"formatting": {
"trimWhitespace": true,
"removeNewlines": false,
"maxTokens": 1000
}
}
}
}
Modellspezifische Funktionen
Code-Vervollständigung
{
"models": {
"code-model": {
"features": {
"codeCompletion": true,
"contextAware": true,
"multiFile": true
}
}
}
}
Chat-Fähigkeiten
{
"models": {
"chat-model": {
"features": {
"chat": true,
"systemPrompts": true,
"streaming": true
}
}
}
}
Leistungsoptimierung
Cache-Einstellungen
{
"models": {
"custom-model": {
"cache": {
"enabled": true,
"maxSize": "1GB",
"ttl": 3600
}
}
}
}
Ratenbegrenzung
{
"models": {
"custom-model": {
"rateLimit": {
"requestsPerMinute": 60,
"tokensPerMinute": 90000,
"concurrent": 5
}
}
}
}
Fehlerbehebung
Häufige Probleme
-
Verbindungsprobleme
- API-Endpunkt überprüfen
- Netzwerkverbindung prüfen
- API-Schlüssel validieren
-
Antwortfehler
- Modellkompatibilität prüfen
- Anforderungsformat überprüfen
- Fehlermeldungen überprüfen
-
Leistungsprobleme
- Kontextlänge optimieren
- Cache-Einstellungen anpassen
- Ratenlimits überwachen
Beste Praktiken
Sicherheit
-
API-Schlüssel-Verwaltung
- Umgebungsvariablen verwenden
- Schlüssel regelmäßig rotieren
- Zugriffskontrollen implementieren
-
Anforderungsvalidierung
- Eingaben bereinigen
- Antworten validieren
- Fehler elegant behandeln
Leistung
-
Kontextoptimierung
- Kontextgröße minimieren
- Relevante Informationen priorisieren
- Cache effektiv nutzen
-
Ressourcenmanagement
- Parallele Anfragen begrenzen
- Speichernutzung überwachen
- Antwortzeiten optimieren