|
|
@@ -0,0 +1,60 @@
|
|
|
+
|
|
|
+
|
|
|
+# Lokaler Deepseek Chatbot mit Ollama
|
|
|
+
|
|
|
+Dieses Projekt stellt einen lokalen Chatbot bereit, der das Deepseek LLM (7B Chat) Modell über Ollama nutzt. Die Kommunikation erfolgt über eine PHP-API.
|
|
|
+
|
|
|
+## Voraussetzungen
|
|
|
+
|
|
|
+- PHP (empfohlen: >= 7.4)
|
|
|
+- [Ollama](https://ollama.com/) mit Deepseek-LLM-7B-Chat Modell
|
|
|
+- Optional: [LM Studio](https://lmstudio.ai/) für Modellverwaltung
|
|
|
+
|
|
|
+## Installation
|
|
|
+
|
|
|
+1. Stelle sicher, dass PHP installiert ist.
|
|
|
+2. Installiere Ollama und lade das Modell `deepseek-llm-7b-chat` herunter.
|
|
|
+3. Klone dieses Repository und wechsle ins Projektverzeichnis.
|
|
|
+
|
|
|
+## Starten des Servers
|
|
|
+
|
|
|
+Starte den PHP-Server im Projektverzeichnis:
|
|
|
+
|
|
|
+```bash
|
|
|
+php -S localhost:8000
|
|
|
+````
|
|
|
+
|
|
|
+## API-Endpunkt
|
|
|
+
|
|
|
+**POST** `/api/chatbot.php`
|
|
|
+
|
|
|
+### Anfrage
|
|
|
+
|
|
|
+Sende eine JSON-Anfrage mit folgendem Format:
|
|
|
+
|
|
|
+```json
|
|
|
+{
|
|
|
+ "question": "Wer bist du?"
|
|
|
+}
|
|
|
+```
|
|
|
+
|
|
|
+### Beispiel mit `curl`
|
|
|
+
|
|
|
+```bash
|
|
|
+curl -X POST -H "Content-Type: application/json" \
|
|
|
+ -d '{"question": "Wer bist du?"}' \
|
|
|
+ http://localhost:8000/api/chatbot.php
|
|
|
+```
|
|
|
+
|
|
|
+### Antwort
|
|
|
+
|
|
|
+Die API gibt eine JSON-Antwort mit der Antwort des Chatbots zurück.
|
|
|
+
|
|
|
+## Hinweise
|
|
|
+
|
|
|
+- Stelle sicher, dass Ollama und das Modell laufen, bevor du Anfragen stellst.
|
|
|
+- Für die Modellverwaltung kann LM Studio genutzt werden.
|
|
|
+
|
|
|
+## Lizenz
|
|
|
+
|
|
|
+MIT
|