Keine Beschreibung

eliasCybob fe91910f4a Removed Offset in Chatbot interface vor 5 Monaten
.idea e29e8d1a5f Readme merge into main vor 5 Monaten
api 3d214edfe4 Created a PDF Reader and bare minimum Prompt builder. vor 5 Monaten
client fe91910f4a Removed Offset in Chatbot interface vor 5 Monaten
scraper a11c66a893 Documented Code, Removed useless getEntries.js vor 5 Monaten
README.md 1bebdbb4fb Updated Documentation vor 5 Monaten

README.md

Lokaler Deepseek Chatbot mit Ollama

Dieses Projekt stellt einen lokalen Chatbot bereit, der das Deepseek LLM (7B Chat) Modell über Ollama nutzt. Die Kommunikation erfolgt über eine PHP-API.

Voraussetzungen

Dies wird später mit Docker überarbeitet

Installation

  1. Stelle sicher, dass PHP installiert ist.

    php -v
    
    1. Installiere Ollama und lade das Modell deepseek-llm-7B-chat-GGUF über LM Studio herunter.

    2. Klone dieses Repository und wechsle ins Projektverzeichnis.

      git clone https://git.cybob-one.com/Daniel/deepseek_chatbot
      cd deepseek_chatbot
      

Starten des Servers

Starte den PHP-Server im Projektverzeichnis:

php -S localhost:8000

API-Endpunkt

POST /api/chatbot.php

Anfrage

Sende eine JSON-Anfrage mit folgendem Format:

{
  "question": "Wer bist du?"
}

Beispiel mit curl

curl -X POST -H "Content-Type: application/json" \
  -d '{"question": "Wer bist du?"}' \
  http://localhost:8000/api/chatbot.php

Antwort

Die API gibt eine JSON-Antwort mit der Antwort des Chatbots zurück.

Hinweise

  • Stelle sicher, dass Ollama und das Modell laufen, bevor du Anfragen stellst.
  • Für die Modellverwaltung kann LM Studio genutzt werden.