|
|
5 months ago | |
|---|---|---|
| .idea | 5 months ago | |
| api | 5 months ago | |
| client | 5 months ago | |
| scraper | 5 months ago | |
| README.md | 5 months ago |
Dieses Projekt stellt einen lokalen Chatbot bereit, der das Deepseek LLM (7B Chat) Modell über Ollama nutzt. Die Kommunikation erfolgt über eine PHP-API.
PHP (empfohlen: >= 7.4)
Ollama mit Deepseek-LLM-7B-Chat Modell
Optional: LM Studio für Modellverwaltung
Optional: Postman für API-Tests Postman collection
Dies wird später mit Docker überarbeitet
Installation
Stelle sicher, dass PHP installiert ist.
php -v
Installiere Ollama und lade das Modell deepseek-llm-7B-chat-GGUF über LM Studio herunter.
Klone dieses Repository und wechsle ins Projektverzeichnis.
git clone https://git.cybob-one.com/Daniel/deepseek_chatbot
cd deepseek_chatbot
Starte den PHP-Server im Projektverzeichnis:
php -S localhost:8000
POST /api/chatbot.php
Sende eine JSON-Anfrage mit folgendem Format:
{
"question": "Wer bist du?"
}
curlcurl -X POST -H "Content-Type: application/json" \
-d '{"question": "Wer bist du?"}' \
http://localhost:8000/api/chatbot.php
Die API gibt eine JSON-Antwort mit der Antwort des Chatbots zurück.