Zum Hauptinhalt springen

Quickstart

Diese Anleitung hilft dir, llm.port schnell zu starten und die erste erfolgreiche Anfrage zu senden.

Prerequisites

  • Docker Engine 24+ with Compose V2
  • 8 GB RAM minimum (16 GB recommended)
  • Python 3.12+ (if using pip-based CLI install)

1) Install the CLI

pip install llmport-cli

You can also use the standalone binary if you prefer not to install Python tooling.

Du kannst auch die Standalone-Binary verwenden, wenn du kein Python-Tooling installieren moechtest.

2) Validate your host

llmport doctor

3) Start the platform

llmport up

4) Complete initial setup

Oeffne die Admin-Konsole und durchlaufe das Erst-Setup:

  • Provider anlegen
  • Model-Alias waehlen
  • API-Token erzeugen oder einfuegen

Danach koennen deine Apps llm.port ueber einen stabilen API-Endpunkt nutzen.

5) Send a test request

curl http://localhost:4000/v1/chat/completions \
-H "Authorization: Bearer <token>" \
-H "Content-Type: application/json" \
-d '{
"model": "<model-alias>",
"messages": [{"role": "user", "content": "Hello"}]
}'

What to do next

  • Provider und Model-Aliase konfigurieren
  • Benoetigte Module aktivieren (z. B. PII oder RAG)
  • Security Overview lesen

Screenshots

Provider-Einrichtung

Model-Katalog

Diese Dokumentation wurde mit KI-Unterstützung erstellt und kann Ungenauigkeiten enthalten. Bitte prüfen Sie kritische Details vor dem Produktionseinsatz.