LLM-Konfigurationen
Elluminate ermöglicht es Ihnen, das Verhalten von Sprachmodellen durch LLM-Konfigurationen anzupassen. Dies ist besonders nützlich, wenn Sie Folgendes benötigen:
- Verschiedene Konfigurationen: Steuerung von Konfigurationsparametern wie temperature, top_p, max_tokens, etc.
- Mehrere Modellvarianten: Testen verschiedener Modelle oder Modellversionen
- Benutzerdefinierte API-Endpunkte: Verwendung verschiedener API-Endpunkte oder Anbieter
Das folgende Beispiel zeigt, wie verschiedene LLM-Konfigurationen verwendet werden:
| import os
from dotenv import load_dotenv
from elluminate import Client
load_dotenv(override=True)
# Initialize the client
client = Client()
# Create a low temperature LLM config for more deterministic responses
low_temp_config, _ = client.llm_configs.get_or_create(
name="Low Temperature GPT-4o mini",
llm_model_name="gpt-4o-mini",
temperature=0.1,
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
llm_base_url=os.getenv("AZURE_OPENAI_ENDPOINT"),
api_version=os.getenv("OPENAI_API_VERSION"),
) # (1)!
# Create a prompt template
prompt_template, _ = client.prompt_templates.get_or_create(
"Create a {{length}} story about a programmer solving the {{problem}} problem.",
name="Programming Stories",
)
# Generate evaluation criteria
client.criteria.generate_many(prompt_template, delete_existing=True)
template_variables = client.template_variables.add_to_collection(
template_variables={"length": "short", "problem": "fizzbuzz"},
collection=prompt_template.default_template_variables_collection,
)
# Generate response using default configuration
response = client.responses.generate(
prompt_template,
template_variables=template_variables,
)
# Generate response using the low temperature configuration
low_temp_response = client.responses.generate(
prompt_template,
template_variables=template_variables,
llm_config=low_temp_config,
) # (2)!
# Rate responses
print("\nRating default response:")
ratings = client.ratings.rate(response)
print("Response: ", response.response, "\n")
for rating in ratings:
print(f"Criterion: {rating.criterion.criterion_str}")
print(f"Rating: {rating.rating}")
print("\nRating low temperature response:")
ratings = client.ratings.rate(low_temp_response)
print("Response: ", low_temp_response.response, "\n")
for rating in ratings:
print(f"Criterion: {rating.criterion.criterion_str}")
print(f"Rating: {rating.rating}")
|
1. Das Erstellen einer LLM-Konfiguration mit spezifischen Parametern ermöglicht es Ihnen, das Verhalten des Modells anzupassen. Sie können beliebige Zugangsdaten für LLM-Anbieter wie Azure OpenAI, OpenAI, Anthropic, etc. übergeben.
2. Bei der Generierung von Antworten können Sie die LLM-Konfiguration als optionalen Parameter übergeben, um diese benutzerdefinierten Einstellungen anstelle der Standardkonfiguration zu verwenden.
Die wichtigsten Konfigurationsparameter sind:
name
: Ein eindeutiger Bezeichner für Ihre Konfiguration
llm_model_name
: Das spezifische zu verwendende Modell (z.B. "gpt-4", "gpt-3.5-turbo")
api_key
: Authentifizierungsschlüssel für den LLM-Anbieter
llm_base_url
: API-Endpunkt-URL
api_version
: Zu verwendende API-Version
Verwendung im Frontend
Im LLM-Konfigurationen-Bereich können Sie Ihre LLM-Konfigurationen anzeigen, durchsuchen und verwalten.

Sie können auch eine neue LLM-Konfiguration erstellen, indem Sie auf die Schaltfläche New Configuration klicken. Hier können Sie den LLM-Anbieter auswählen und die erforderlichen Zugangsdaten eingeben.

Die Einstellungen können sowohl während der Erstellung als auch nachträglich für die Konfigurationen angepasst werden.
