Keine Beschreibung

eliasCybob 55f016f16b Merge remote-tracking branch 'origin/fix/Readme-Clarification' into fix/Readme-Clarification vor 10 Monaten
.idea 41e6dd504d Initial Commit vor 10 Monaten
api 380eb5d160 DeepSeek-llm:chat vor 10 Monaten
client 41e6dd504d Initial Commit vor 10 Monaten
scraper 380eb5d160 DeepSeek-llm:chat vor 10 Monaten
README.md 680b181e53 Created README.md Documentation vor 10 Monaten

README.md

Lokaler Deepseek Chatbot mit Ollama

Dieses Projekt stellt einen lokalen Chatbot bereit, der das Deepseek LLM (7B Chat) Modell über Ollama nutzt. Die Kommunikation erfolgt über eine PHP-API.

Voraussetzungen

  • PHP (empfohlen: >= 7.4)
  • Ollama mit Deepseek-LLM-7B-Chat Modell
  • Optional: LM Studio für Modellverwaltung

Installation

  1. Stelle sicher, dass PHP installiert ist.
  2. Installiere Ollama und lade das Modell deepseek-llm-7b-chat herunter.
  3. Klone dieses Repository und wechsle ins Projektverzeichnis.

Starten des Servers

Starte den PHP-Server im Projektverzeichnis:

php -S localhost:8000
````

## API-Endpunkt

**POST** `/api/chatbot.php`

### Anfrage

Sende eine JSON-Anfrage mit folgendem Format:

```json
{
  "question": "Wer bist du?"
}

Beispiel mit curl

curl -X POST -H "Content-Type: application/json" \
  -d '{"question": "Wer bist du?"}' \
  http://localhost:8000/api/chatbot.php

Antwort

Die API gibt eine JSON-Antwort mit der Antwort des Chatbots zurück.

Hinweise

  • Stelle sicher, dass Ollama und das Modell laufen, bevor du Anfragen stellst.
  • Für die Modellverwaltung kann LM Studio genutzt werden.

Lizenz

MIT