Keine Beschreibung

eliasCybob a11c66a893 Documented Code, Removed useless getEntries.js vor 5 Monaten
.idea e29e8d1a5f Readme merge into main vor 5 Monaten
api a11c66a893 Documented Code, Removed useless getEntries.js vor 5 Monaten
client 41e6dd504d Initial Commit vor 6 Monaten
scraper a11c66a893 Documented Code, Removed useless getEntries.js vor 5 Monaten
README.md 4f4c55a894 Merge remote-tracking branch 'origin/fix/Readme-Clarification' into fix/Readme-Clarification vor 5 Monaten

README.md

Lokaler Deepseek Chatbot mit Ollama

Dieses Projekt stellt einen lokalen Chatbot bereit, der das Deepseek LLM (7B Chat) Modell über Ollama nutzt. Die Kommunikation erfolgt über eine PHP-API.

Voraussetzungen

  1. Stelle sicher, dass PHP installiert ist.
  2. Installiere Ollama und lade das Modell deepseek-llm-7b-chat herunter.
  3. Klone dieses Repository und wechsle ins Projektverzeichnis.

Starten des Servers

Starte den PHP-Server im Projektverzeichnis:

php -S localhost:8000

API-Endpunkt

POST /api/chatbot.php

Anfrage

Sende eine JSON-Anfrage mit folgendem Format:

{
  "question": "Wer bist du?"
}

Beispiel mit curl

curl -X POST -H "Content-Type: application/json" \
  -d '{"question": "Wer bist du?"}' \
  http://localhost:8000/api/chatbot.php

Antwort

Die API gibt eine JSON-Antwort mit der Antwort des Chatbots zurück.

Hinweise

  • Stelle sicher, dass Ollama und das Modell laufen, bevor du Anfragen stellst.
  • Für die Modellverwaltung kann LM Studio genutzt werden.