|
|
@@ -0,0 +1,56 @@
|
|
|
+
|
|
|
+
|
|
|
+# Lokaler Deepseek Chatbot mit Ollama
|
|
|
+
|
|
|
+Dieses Projekt stellt einen lokalen Chatbot bereit, der das Deepseek LLM (7B Chat) Modell über Ollama nutzt. Die Kommunikation erfolgt über eine PHP-API.
|
|
|
+
|
|
|
+## Voraussetzungen
|
|
|
+
|
|
|
+- PHP (empfohlen: >= 7.4)
|
|
|
+- [Ollama](https://ollama.com/) mit Deepseek-LLM-7B-Chat Modell
|
|
|
+- Optional: [LM Studio](https://lmstudio.ai/) für Modellverwaltung
|
|
|
+- Optional: Postman für API-Tests [Postman collection](https://danielgraf-5846927.postman.co/workspace/Daniel-Graf's-Workspace~471f4bdd-8623-4b95-8d73-aacd2f6a771a/collection/45973825-cc4e1b49-0480-47b1-ab78-292ec8dc7c98?action=share&source=copy-link&creator=45973825)
|
|
|
+## Installation
|
|
|
+
|
|
|
+1. Stelle sicher, dass PHP installiert ist.
|
|
|
+2. Installiere Ollama und lade das Modell `deepseek-llm-7b-chat` herunter.
|
|
|
+3. Klone dieses Repository und wechsle ins Projektverzeichnis.
|
|
|
+
|
|
|
+## Starten des Servers
|
|
|
+
|
|
|
+Starte den PHP-Server im Projektverzeichnis:
|
|
|
+
|
|
|
+```bash
|
|
|
+php -S localhost:8000
|
|
|
+```
|
|
|
+
|
|
|
+## API-Endpunkt
|
|
|
+
|
|
|
+**POST** `/api/chatbot.php`
|
|
|
+
|
|
|
+### Anfrage
|
|
|
+
|
|
|
+Sende eine JSON-Anfrage mit folgendem Format:
|
|
|
+
|
|
|
+```json
|
|
|
+{
|
|
|
+ "question": "Wer bist du?"
|
|
|
+}
|
|
|
+```
|
|
|
+
|
|
|
+### Beispiel mit `curl`
|
|
|
+
|
|
|
+```bash
|
|
|
+curl -X POST -H "Content-Type: application/json" \
|
|
|
+ -d '{"question": "Wer bist du?"}' \
|
|
|
+ http://localhost:8000/api/chatbot.php
|
|
|
+```
|
|
|
+
|
|
|
+### Antwort
|
|
|
+
|
|
|
+Die API gibt eine JSON-Antwort mit der Antwort des Chatbots zurück.
|
|
|
+
|
|
|
+## Hinweise
|
|
|
+
|
|
|
+- Stelle sicher, dass Ollama und das Modell laufen, bevor du Anfragen stellst.
|
|
|
+- Für die Modellverwaltung kann LM Studio genutzt werden.
|