|
@@ -1,5 +1,3 @@
|
|
|
-
|
|
|
|
|
-
|
|
|
|
|
# Lokaler Deepseek Chatbot mit Ollama
|
|
# Lokaler Deepseek Chatbot mit Ollama
|
|
|
|
|
|
|
|
Dieses Projekt stellt einen lokalen Chatbot bereit, der das Deepseek LLM (7B Chat) Modell über Ollama nutzt. Die Kommunikation erfolgt über eine PHP-API.
|
|
Dieses Projekt stellt einen lokalen Chatbot bereit, der das Deepseek LLM (7B Chat) Modell über Ollama nutzt. Die Kommunikation erfolgt über eine PHP-API.
|
|
@@ -7,15 +5,28 @@ Dieses Projekt stellt einen lokalen Chatbot bereit, der das Deepseek LLM (7B Cha
|
|
|
## Voraussetzungen
|
|
## Voraussetzungen
|
|
|
|
|
|
|
|
- PHP (empfohlen: >= 7.4)
|
|
- PHP (empfohlen: >= 7.4)
|
|
|
- - [Homebrew](https://brew.sh/): `brew install php`
|
|
|
|
|
|
|
+ - [Homebrew](https://brew.sh/): `brew install php`
|
|
|
|
|
+ - [Poppler](https://formulae.brew.sh/formula/poppler): `brew install poppler`
|
|
|
|
|
+
|
|
|
- [Ollama](https://ollama.com/) mit Deepseek-LLM-7B-Chat Modell
|
|
- [Ollama](https://ollama.com/) mit Deepseek-LLM-7B-Chat Modell
|
|
|
- Optional: [LM Studio](https://lmstudio.ai/) für Modellverwaltung
|
|
- Optional: [LM Studio](https://lmstudio.ai/) für Modellverwaltung
|
|
|
- Optional: Postman für API-Tests [Postman collection](https://danielgraf-5846927.postman.co/workspace/Daniel-Graf's-Workspace~471f4bdd-8623-4b95-8d73-aacd2f6a771a/collection/45973825-cc4e1b49-0480-47b1-ab78-292ec8dc7c98?action=share&source=copy-link&creator=45973825)
|
|
- Optional: Postman für API-Tests [Postman collection](https://danielgraf-5846927.postman.co/workspace/Daniel-Graf's-Workspace~471f4bdd-8623-4b95-8d73-aacd2f6a771a/collection/45973825-cc4e1b49-0480-47b1-ab78-292ec8dc7c98?action=share&source=copy-link&creator=45973825)
|
|
|
|
|
+
|
|
|
|
|
+>Dies wird später mit Docker überarbeitet
|
|
|
## Installation
|
|
## Installation
|
|
|
|
|
|
|
|
1. Stelle sicher, dass PHP installiert ist.
|
|
1. Stelle sicher, dass PHP installiert ist.
|
|
|
-2. Installiere Ollama und lade das Modell `deepseek-llm-7b-chat` herunter.
|
|
|
|
|
|
|
+ ```bash
|
|
|
|
|
+ php -v
|
|
|
|
|
+ ```
|
|
|
|
|
+2. Installiere Ollama und lade das Modell `deepseek-llm-7B-chat-GGUF` über LM Studio herunter.
|
|
|
|
|
+
|
|
|
3. Klone dieses Repository und wechsle ins Projektverzeichnis.
|
|
3. Klone dieses Repository und wechsle ins Projektverzeichnis.
|
|
|
|
|
+ ```bash
|
|
|
|
|
+ git clone https://git.cybob-one.com/Daniel/deepseek_chatbot
|
|
|
|
|
+ cd deepseek_chatbot
|
|
|
|
|
+ ```
|
|
|
|
|
+
|
|
|
|
|
|
|
|
## Starten des Servers
|
|
## Starten des Servers
|
|
|
|
|
|
|
@@ -51,11 +62,6 @@ curl -X POST -H "Content-Type: application/json" \
|
|
|
|
|
|
|
|
Die API gibt eine JSON-Antwort mit der Antwort des Chatbots zurück.
|
|
Die API gibt eine JSON-Antwort mit der Antwort des Chatbots zurück.
|
|
|
|
|
|
|
|
-### API Interface
|
|
|
|
|
-
|
|
|
|
|
-Die API verfügt über eine Weboberfläche, die du unter http://localhost:8000/client/ aufrüfen kannst
|
|
|
|
|
-
|
|
|
|
|
-
|
|
|
|
|
## Hinweise
|
|
## Hinweise
|
|
|
|
|
|
|
|
- Stelle sicher, dass Ollama und das Modell laufen, bevor du Anfragen stellst.
|
|
- Stelle sicher, dass Ollama und das Modell laufen, bevor du Anfragen stellst.
|