README.md 1.5 KB

Lokaler Deepseek Chatbot mit Ollama

Dieses Projekt stellt einen lokalen Chatbot bereit, der das Deepseek LLM (7B Chat) Modell über Ollama nutzt. Die Kommunikation erfolgt über eine PHP-API.

Voraussetzungen

  • PHP (empfohlen: >= 7.4)
  • Ollama mit Deepseek-LLM-7B-Chat Modell
  • Optional: LM Studio für Modellverwaltung
  • Optional: Postman für API-Tests Postman collection

    Installation

  1. Stelle sicher, dass PHP installiert ist.
  2. Installiere Ollama und lade das Modell deepseek-llm-7b-chat herunter.
  3. Klone dieses Repository und wechsle ins Projektverzeichnis.

Starten des Servers

Starte den PHP-Server im Projektverzeichnis:

php -S localhost:8000

API-Endpunkt

POST /api/chatbot.php

Anfrage

Sende eine JSON-Anfrage mit folgendem Format:

{
  "question": "Wer bist du?"
}

Beispiel mit curl

curl -X POST -H "Content-Type: application/json" \
  -d '{"question": "Wer bist du?"}' \
  http://localhost:8000/api/chatbot.php

Antwort

Die API gibt eine JSON-Antwort mit der Antwort des Chatbots zurück.

Hinweise

  • Stelle sicher, dass Ollama und das Modell laufen, bevor du Anfragen stellst.
  • Für die Modellverwaltung kann LM Studio genutzt werden.