README.md 1.8 KB

Lokaler Deepseek Chatbot mit Ollama

Dieses Projekt stellt einen lokalen Chatbot bereit, der das Deepseek LLM (7B Chat) Modell über Ollama nutzt. Die Kommunikation erfolgt über eine PHP-API.

Voraussetzungen

Dies wird später mit Docker überarbeitet

Installation

  1. Stelle sicher, dass PHP installiert ist.

    php -v
    
    1. Installiere Ollama und lade das Modell deepseek-llm-7B-chat-GGUF über LM Studio herunter.

    2. Klone dieses Repository und wechsle ins Projektverzeichnis.

      git clone https://git.cybob-one.com/Daniel/deepseek_chatbot
      cd deepseek_chatbot
      

Starten des Servers

Starte den PHP-Server im Projektverzeichnis:

php -S localhost:8000

API-Endpunkt

POST /api/chatbot.php

Anfrage

Sende eine JSON-Anfrage mit folgendem Format:

{
  "question": "Wer bist du?"
}

Beispiel mit curl

curl -X POST -H "Content-Type: application/json" \
  -d '{"question": "Wer bist du?"}' \
  http://localhost:8000/api/chatbot.php

Antwort

Die API gibt eine JSON-Antwort mit der Antwort des Chatbots zurück.

Hinweise

  • Stelle sicher, dass Ollama und das Modell laufen, bevor du Anfragen stellst.
  • Für die Modellverwaltung kann LM Studio genutzt werden.