No Description

eliasCybob fe91910f4a Removed Offset in Chatbot interface 5 months ago
.idea e29e8d1a5f Readme merge into main 5 months ago
api 3d214edfe4 Created a PDF Reader and bare minimum Prompt builder. 5 months ago
client fe91910f4a Removed Offset in Chatbot interface 5 months ago
scraper a11c66a893 Documented Code, Removed useless getEntries.js 5 months ago
README.md 1bebdbb4fb Updated Documentation 5 months ago

README.md

Lokaler Deepseek Chatbot mit Ollama

Dieses Projekt stellt einen lokalen Chatbot bereit, der das Deepseek LLM (7B Chat) Modell über Ollama nutzt. Die Kommunikation erfolgt über eine PHP-API.

Voraussetzungen

Dies wird später mit Docker überarbeitet

Installation

  1. Stelle sicher, dass PHP installiert ist.

    php -v
    
    1. Installiere Ollama und lade das Modell deepseek-llm-7B-chat-GGUF über LM Studio herunter.

    2. Klone dieses Repository und wechsle ins Projektverzeichnis.

      git clone https://git.cybob-one.com/Daniel/deepseek_chatbot
      cd deepseek_chatbot
      

Starten des Servers

Starte den PHP-Server im Projektverzeichnis:

php -S localhost:8000

API-Endpunkt

POST /api/chatbot.php

Anfrage

Sende eine JSON-Anfrage mit folgendem Format:

{
  "question": "Wer bist du?"
}

Beispiel mit curl

curl -X POST -H "Content-Type: application/json" \
  -d '{"question": "Wer bist du?"}' \
  http://localhost:8000/api/chatbot.php

Antwort

Die API gibt eine JSON-Antwort mit der Antwort des Chatbots zurück.

Hinweise

  • Stelle sicher, dass Ollama und das Modell laufen, bevor du Anfragen stellst.
  • Für die Modellverwaltung kann LM Studio genutzt werden.