# Lokaler Deepseek Chatbot mit Ollama Dieses Projekt stellt einen lokalen Chatbot bereit, der das Deepseek LLM (7B Chat) Modell über Ollama nutzt. Die Kommunikation erfolgt über eine PHP-API. ## Voraussetzungen - PHP (empfohlen: >= 7.4) - [Homebrew](https://brew.sh/): `brew install php` - [Poppler](https://formulae.brew.sh/formula/poppler): `brew install poppler` - [Ollama](https://ollama.com/) mit Deepseek-LLM-7B-Chat Modell - Optional: [LM Studio](https://lmstudio.ai/) für Modellverwaltung - Optional: Postman für API-Tests [Postman collection](https://danielgraf-5846927.postman.co/workspace/Daniel-Graf's-Workspace~471f4bdd-8623-4b95-8d73-aacd2f6a771a/collection/45973825-cc4e1b49-0480-47b1-ab78-292ec8dc7c98?action=share&source=copy-link&creator=45973825) >Dies wird später mit Docker überarbeitet ## Installation 1. Stelle sicher, dass PHP installiert ist. ```bash php -v ``` 2. Installiere Ollama und lade das Modell `deepseek-llm-7B-chat-GGUF` über LM Studio herunter. 3. Klone dieses Repository und wechsle ins Projektverzeichnis. ```bash git clone https://git.cybob-one.com/Daniel/deepseek_chatbot cd deepseek_chatbot ``` ## Starten des Servers Starte den PHP-Server im Projektverzeichnis: ```bash php -S localhost:8000 ``` ## API-Endpunkt **POST** `/api/chatbot.php` ### Anfrage Sende eine JSON-Anfrage mit folgendem Format: ```json { "question": "Wer bist du?" } ``` ### Beispiel mit `curl` ```bash curl -X POST -H "Content-Type: application/json" \ -d '{"question": "Wer bist du?"}' \ http://localhost:8000/api/chatbot.php ``` ### Antwort Die API gibt eine JSON-Antwort mit der Antwort des Chatbots zurück. ## Hinweise - Stelle sicher, dass Ollama und das Modell laufen, bevor du Anfragen stellst. - Für die Modellverwaltung kann LM Studio genutzt werden.