-
Notifications
You must be signed in to change notification settings - Fork 1
LLM_COMPLETE_SETUP_GUIDE
Vollständige Anleitung zum Laden eines LLM in ThemisDB und Durchführen von Inferencing an Beispieldaten
- Überblick
- Voraussetzungen
- Setup-Optionen
- Schritt 1: ThemisDB mit LLM-Support bauen
- Schritt 2: Modell laden
- Schritt 3: Inferencing durchführen
- Schritt 4: RAG-Workflow mit Beispieldaten
- Erweiterte Themen
- Troubleshooting
- Weiterführende Dokumentation
ThemisDB bietet ab Version 1.3.0 eine optionale eingebettete LLM-Engine basierend auf llama.cpp. Diese Anleitung führt Sie durch:
- ✅ Build von ThemisDB mit LLM-Support
- ✅ Laden eines LLM-Modells (z.B. Llama, Mistral, Phi-3)
- ✅ Durchführen von Inferencing-Anfragen
- ✅ RAG-Workflows mit Beispieldaten (Retrieval-Augmented Generation)
- 🔧 Wie Sie ThemisDB mit aktiviertem LLM-Feature kompilieren
- 📦 Wie Sie GGUF-Modelle von Hugging Face herunterladen
- 🚀 Wie Sie Modelle in ThemisDB laden und verwalten
- 💬 Wie Sie Text-Generierung und Chat-Completion durchführen
- 🔍 Wie Sie RAG (Retrieval-Augmented Generation) implementieren
- ⚡ Wie Sie GPU-Beschleunigung nutzen
💡 Hinweis: Das LLM-Feature ist optional und erfordert:
- Build-Flag:
-DTHEMIS_ENABLE_LLM=ON- Externe Abhängigkeit: llama.cpp (separat klonen)
- Min. 8 GB RAM (16 GB empfohlen für größere Modelle)
Minimum (CPU-Only):
- 8 GB RAM (für kleine Modelle wie Phi-3 Mini 3B)
- 4 CPU-Kerne
- 10 GB freier Speicherplatz
Empfohlen (mit GPU):
- 16 GB RAM
- NVIDIA GPU mit 8+ GB VRAM (für GPU-Beschleunigung)
- 8 CPU-Kerne
- 50 GB freier Speicherplatz
Enterprise (große Modelle):
- 32+ GB RAM
- NVIDIA GPU mit 24+ GB VRAM (für Modelle wie Llama-70B)
- 16+ CPU-Kerne
- 100+ GB freier Speicherplatz
- CMake 3.20+
- C++ Compiler mit C++20 Support (GCC 11+, Clang 13+, MSVC 2022)
- Git
- vcpkg (automatisch von ThemisDB-Skripten eingerichtet)
- CUDA Toolkit 11.8+ (optional, für GPU-Beschleunigung)
- ✅ Linux (Ubuntu 20.04+, Debian 11+)
- ✅ Windows 10/11 (mit MSVC 2022)
- ✅ macOS 12+ (mit Metal-Support)
Es gibt drei Hauptoptionen für das Setup:
| Option | Vorteile | Ideal für |
|---|---|---|
| 🐳 Docker mit vLLM | Einfachste Installation, kein Build nötig | Schneller Start, Produktion |
| 🔨 Source Build | Volle Kontrolle, optimiert für Hardware | Entwicklung, Performance-Tuning |
| 📦 Hybrid (ThemisDB + Ollama) | ThemisDB ohne LLM + externe LLM-API | Einfaches Setup, Flexibilität |
Wählen Sie Docker, wenn:
- Sie schnell starten möchten
- Sie keine Entwicklung an ThemisDB selbst machen
- Sie einen Produktions-Setup benötigen
Wählen Sie Source Build, wenn:
- Sie maximale Performance benötigen
- Sie spezifische Optimierungen vornehmen möchten
- Sie an ThemisDB entwickeln
Wählen Sie Hybrid, wenn:
- Sie ThemisDB bereits haben und nur LLM-Features testen möchten
- Sie verschiedene LLM-Backends ausprobieren wollen
- Sie Ollama bevorzugen
# 1. Repository klonen
git clone https://github.com/makr-code/ThemisDB.git
cd ThemisDB
# 2. Docker Compose mit vLLM verwenden
docker compose -f docker-compose-vllm.yml up -d
# 3. Status überprüfen
docker compose -f docker-compose-vllm.yml ps
# 4. Logs ansehen
docker compose -f docker-compose-vllm.yml logs -f themisdbWas passiert:
- ThemisDB startet auf Port
8765(Binary) und8080(HTTP) - vLLM startet auf Port
8000(optional für externe LLM-API) - Automatisches Setup der Integration
📝 Siehe auch: Docker Deployment Guide
# 1. Repository und Abhängigkeiten klonen
git clone https://github.com/makr-code/ThemisDB.git
cd ThemisDB
# 2. llama.cpp klonen (erforderlich für LLM-Support)
git clone https://github.com/ggerganov/llama.cpp.git llama.cpp
cd llama.cpp
git checkout b1698 # Stabiles Release
cd ..
# 3. Setup-Skript ausführen
./scripts/setup.sh
# 4. Build mit LLM-Support
mkdir -p build
cd build
# CPU-Only Build
cmake .. -DTHEMIS_ENABLE_LLM=ON
# GPU-beschleunigter Build (CUDA)
cmake .. -DTHEMIS_ENABLE_LLM=ON -DGGML_CUDA=ON
# Kompilieren (nutzt alle CPU-Kerne)
cmake --build . --config Release -j$(nproc)
# 5. Installation (optional)
sudo cmake --install .Build-Zeit: 10-30 Minuten (abhängig von Hardware)
# 1. Repository und Abhängigkeiten klonen
git clone https://github.com/makr-code/ThemisDB.git
cd ThemisDB
# 2. llama.cpp klonen
if (!(Test-Path "llama.cpp")) {
git clone https://github.com/ggerganov/llama.cpp.git llama.cpp
}
# 3. MSVC Build-Skript verwenden
powershell -File scripts/build-themis-server-llm.ps1
# 4. Executable testen
./build-msvc/bin/themis_server.exe --help📝 Siehe auch:
# Version und Features prüfen
./build/themis_server --version
# Sollte anzeigen:
# ThemisDB v1.3.0
# Features: LLM_SUPPORT=ON, CUDA_SUPPORT=ON
# Server starten (Test)
./build/themis_server --config config.yaml
# In anderem Terminal: Health-Check
curl http://localhost:8765/healthGGUF ist das bevorzugte Format für llama.cpp. Modelle sind auf Hugging Face verfügbar.
Beliebte Modelle:
| Modell | Größe | VRAM | Download |
|---|---|---|---|
| Phi-3 Mini | 3B | 4 GB | Link |
| Llama 3.2 | 3B | 4 GB | Link |
| Mistral 7B | 7B | 8 GB | Link |
| Llama 3.1 | 8B | 10 GB | Link |
Empfehlung für Einsteiger: Phi-3 Mini (klein, schnell, gute Qualität)
# Ordner für Modelle erstellen
mkdir -p ~/models/gguf
# Beispiel: Phi-3 Mini herunterladen (Q4_K_M Quantisierung)
cd ~/models/gguf
# Mit wget
wget https://huggingface.co/microsoft/Phi-3-mini-4k-instruct-gguf/resolve/main/Phi-3-mini-4k-instruct-q4.gguf
# ODER mit huggingface-cli (empfohlen)
pip install huggingface-hub
huggingface-cli download microsoft/Phi-3-mini-4k-instruct-gguf \
Phi-3-mini-4k-instruct-q4.gguf \
--local-dir ~/models/ggufQuantisierungs-Formate:
-
Q4_K_M- Guter Kompromiss (empfohlen) -
Q5_K_M- Höhere Qualität, mehr Speicher -
Q8_0- Beste Qualität, noch mehr Speicher -
Q2_K- Sehr klein, niedrigere Qualität
Es gibt mehrere Wege, ein Modell zu laden:
# Modell über REST API laden
curl -X POST http://localhost:8080/api/llm/load_model \
-H "Content-Type: application/json" \
-d '{
"model_path": "/home/user/models/gguf/Phi-3-mini-4k-instruct-q4.gguf",
"model_id": "phi3-mini",
"context_size": 4096,
"gpu_layers": 32,
"options": {
"temperature": 0.7,
"top_p": 0.9,
"top_k": 40
}
}'
# Antwort:
# {
# "status": "success",
# "model_id": "phi3-mini",
# "loaded": true,
# "memory_usage_mb": 2048
# }Parameter:
-
model_path: Absoluter Pfad zur GGUF-Datei -
model_id: Eindeutiger Identifier (frei wählbar) -
context_size: Kontext-Fenster (4096, 8192, 32768, etc.) -
gpu_layers: Anzahl Layer auf GPU (0 = CPU-only, -1 = alle) -
options: Sampling-Parameter
mutation {
loadLLMModel(
modelPath: "/home/user/models/gguf/Phi-3-mini-4k-instruct-q4.gguf"
modelId: "phi3-mini"
contextSize: 4096
gpuLayers: 32
) {
status
modelId
loaded
memoryUsageMb
}
}# config.yaml
llm:
enabled: true
models:
- id: phi3-mini
path: /home/user/models/gguf/Phi-3-mini-4k-instruct-q4.gguf
context_size: 4096
gpu_layers: 32
preload: true
# Server mit Config starten
./themis_server --config config.yaml# Liste aller geladenen Modelle
curl http://localhost:8080/api/llm/models
# Antwort:
# {
# "models": [
# {
# "id": "phi3-mini",
# "path": "/home/user/models/gguf/Phi-3-mini-4k-instruct-q4.gguf",
# "loaded": true,
# "memory_mb": 2048,
# "gpu_layers": 32,
# "context_size": 4096
# }
# ]
# }📝 Siehe auch: LLM Loader Guide
# Simple completion
curl -X POST http://localhost:8080/api/llm/generate \
-H "Content-Type: application/json" \
-d '{
"model_id": "phi3-mini",
"prompt": "Erkläre mir die Vorteile von Multi-Model Datenbanken:",
"max_tokens": 256,
"temperature": 0.7
}'
# Antwort:
# {
# "model_id": "phi3-mini",
# "prompt": "Erkläre mir die Vorteile von Multi-Model Datenbanken:",
# "response": "Multi-Model Datenbanken bieten mehrere Vorteile:\n\n1. Flexibilität: Sie können verschiedene Datenmodelle (Relational, Dokument, Graph, Vector) in einer Datenbank vereinen.\n2. Einfachheit: Keine Notwendigkeit für mehrere separate Datenbanksysteme.\n3. Konsistenz: ACID-Transaktionen über alle Datenmodelle hinweg.\n4. Performance: Optimierte Abfragen für jeden Datentyp.\n5. Entwickler-Produktivität: Eine API für alle Datenmodelle.",
# "tokens_generated": 142,
# "latency_ms": 3847
# }# Chat-API mit Kontext
curl -X POST http://localhost:8080/api/llm/chat \
-H "Content-Type: application/json" \
-d '{
"model_id": "phi3-mini",
"messages": [
{
"role": "system",
"content": "Du bist ein hilfreicher Assistent für Datenbankfragen."
},
{
"role": "user",
"content": "Was ist ThemisDB?"
}
],
"max_tokens": 200,
"temperature": 0.7
}'
# Antwort:
# {
# "model_id": "phi3-mini",
# "response": "ThemisDB ist eine Multi-Model Datenbank mit nativer LLM-Integration...",
# "finish_reason": "stop",
# "tokens": 156,
# "latency_ms": 2341
# }# ThemisDB Python Client installieren
# pip install themisdb-client
from themisdb import ThemisClient
# Client initialisieren
client = ThemisClient(host="localhost", port=8080)
# Text-Generierung
response = client.llm.generate(
model_id="phi3-mini",
prompt="Schreibe eine kurze Zusammenfassung über ACID-Transaktionen:",
max_tokens=150,
temperature=0.7
)
print(response.text)
# ACID-Transaktionen garantieren Atomicity, Consistency, Isolation und
# Durability. Diese Eigenschaften stellen sicher, dass Datenbanktransaktionen
# zuverlässig und konsistent ausgeführt werden...
print(f"Tokens: {response.tokens}, Latenz: {response.latency_ms}ms")Für lange Antworten ist Streaming nützlich:
# Streaming-Generierung
for chunk in client.llm.generate_stream(
model_id="phi3-mini",
prompt="Erkläre ausführlich die Architektur von ThemisDB:",
max_tokens=500
):
print(chunk.text, end="", flush=True)
# ThemisDB verwendet eine mehrschichtige Architektur...
# [Text wird progressiv ausgegeben]RAG (Retrieval-Augmented Generation) kombiniert Vektorsuche mit LLM-Generierung.
from themisdb import ThemisClient
from sentence_transformers import SentenceTransformer
# Client und Embedding-Modell
client = ThemisClient(host="localhost", port=8080)
embedding_model = SentenceTransformer('all-MiniLM-L6-v2')
# Beispieldokumente
documents = [
{
"id": "doc1",
"title": "ThemisDB Features",
"content": "ThemisDB ist eine Multi-Model Datenbank mit ACID-Transaktionen, Graph-Support und nativer LLM-Integration."
},
{
"id": "doc2",
"title": "Vector Search",
"content": "ThemisDB verwendet HNSW-Algorithmus für schnelle Vektorsuche und unterstützt GPU-Beschleunigung."
},
{
"id": "doc3",
"title": "LLM Integration",
"content": "Die native LLM-Integration basiert auf llama.cpp und unterstützt Llama, Mistral und Phi-3 Modelle."
}
]
# Embeddings generieren und Dokumente speichern
for doc in documents:
# Embedding generieren
embedding = embedding_model.encode(doc["content"]).tolist()
# In ThemisDB speichern
client.put_entity(
entity_id=f"docs:{doc['id']}",
data={
"title": doc["title"],
"content": doc["content"],
"embedding": embedding
}
)
# Vector-Index erstellen (einmalig)
client.create_vector_index(
table="docs",
column="embedding",
dimensions=384, # all-MiniLM-L6-v2 Dimensionen
metric="cosine"
)
print("✓ Dokumente geladen und indexiert")def rag_query(question: str, top_k: int = 3):
"""
RAG-Pipeline: Retrieve -> Augment -> Generate
"""
# 1. RETRIEVE: Relevante Dokumente suchen
query_embedding = embedding_model.encode(question).tolist()
results = client.vector_search(
table="docs",
vector=query_embedding,
top_k=top_k,
return_entities=True
)
# 2. AUGMENT: Kontext aufbauen
context = "\n\n".join([
f"Dokument {i+1}:\n{doc['content']}"
for i, doc in enumerate(results)
])
# 3. GENERATE: LLM-Antwort mit Kontext
prompt = f"""Beantworte die folgende Frage basierend auf den gegebenen Dokumenten.
Dokumente:
{context}
Frage: {question}
Antwort:"""
response = client.llm.generate(
model_id="phi3-mini",
prompt=prompt,
max_tokens=200,
temperature=0.7
)
return {
"question": question,
"answer": response.text,
"sources": [doc['title'] for doc in results],
"latency_ms": response.latency_ms
}
# RAG-Query durchführen
result = rag_query("Welche Features hat ThemisDB?")
print(f"Frage: {result['question']}")
print(f"Antwort: {result['answer']}")
print(f"Quellen: {', '.join(result['sources'])}")
print(f"Latenz: {result['latency_ms']}ms")Ausgabe:
Frage: Welche Features hat ThemisDB?
Antwort: Basierend auf den Dokumenten bietet ThemisDB folgende Features:
1. Multi-Model Datenbank mit Unterstützung für verschiedene Datenmodelle
2. ACID-Transaktionen für Datenkonsistenz
3. Graph-Support für Beziehungen und Traversierungen
4. Native LLM-Integration basierend auf llama.cpp
5. Vector Search mit HNSW-Algorithmus
6. GPU-Beschleunigung für performante Vektorsuche
Quellen: ThemisDB Features, Vector Search
Latenz: 2547ms
Ein vollständiges RAG-Beispiel finden Sie hier:
📁 examples/07_vector_search_documents/
Dieses Beispiel zeigt:
- ✅ Dokument-Upload und Embedding-Generierung
- ✅ Vector-Index Management
- ✅ Hybride Suche (BM25 + Vector)
- ✅ RAG-Pipeline mit verschiedenen LLMs
- ✅ Tkinter-GUI für interaktive Queries
# Beispiel starten
cd examples/07_vector_search_documents
pip install -r requirements.txt
python main.py📝 Siehe auch:
# Alle Layer auf GPU laden (-1)
curl -X POST http://localhost:8080/api/llm/load_model \
-H "Content-Type: application/json" \
-d '{
"model_path": "/home/user/models/gguf/mistral-7b-q4.gguf",
"model_id": "mistral-7b",
"gpu_layers": -1
}'
# GPU-Speicher überwachen
nvidia-smi -l 1Empfohlene GPU-Layer-Werte:
- Kleine Modelle (3-7B):
-1(alle Layer) - Mittlere Modelle (13B):
32-40Layer - Große Modelle (70B):
20-30Layer (abhängig von VRAM)
LoRA (Low-Rank Adaptation) ermöglicht Fine-Tuning ohne vollständiges Retraining:
# LoRA-Adapter laden
curl -X POST http://localhost:8080/api/llm/load_lora \
-H "Content-Type: application/json" \
-d '{
"model_id": "phi3-mini",
"lora_path": "/home/user/loras/phi3-german-lora.bin",
"lora_id": "german-adapter",
"scale": 1.0
}'
# Mit LoRA inferieren
curl -X POST http://localhost:8080/api/llm/generate \
-H "Content-Type: application/json" \
-d '{
"model_id": "phi3-mini",
"lora_id": "german-adapter",
"prompt": "Übersetze ins Deutsche: Hello World",
"max_tokens": 50
}'📝 Siehe auch: LoRA Training Framework
# Prompt-Template registrieren
client.llm.register_template(
template_id="rag-query",
template="""Basierend auf folgenden Dokumenten:
{context}
Beantworte die Frage: {question}
Antwort:""",
variables=["context", "question"]
)
# Template verwenden
response = client.llm.generate_from_template(
model_id="phi3-mini",
template_id="rag-query",
variables={
"context": context_text,
"question": "Was ist ThemisDB?"
}
)Für viele Anfragen gleichzeitig:
# Batch-Request
batch_prompts = [
"Erkläre ACID",
"Was ist ein Graph-Algorithmus?",
"Wie funktioniert Vector Search?"
]
responses = client.llm.generate_batch(
model_id="phi3-mini",
prompts=batch_prompts,
max_tokens=100
)
for prompt, response in zip(batch_prompts, responses):
print(f"Q: {prompt}")
print(f"A: {response.text}\n")# LLM-Metriken abrufen
curl http://localhost:8080/api/llm/metrics
# Antwort:
# {
# "total_requests": 1523,
# "total_tokens_generated": 234567,
# "avg_latency_ms": 2341,
# "cache_hit_rate": 0.43,
# "models": {
# "phi3-mini": {
# "requests": 1523,
# "tokens": 234567,
# "avg_latency_ms": 2341
# }
# }
# }📝 Siehe auch: Monitoring & Testing Strategy
Symptom: Failed to load model Fehler
Lösungen:
- Überprüfen Sie den Dateipfad:
ls -lh /home/user/models/gguf/
- Prüfen Sie Dateiberechtigungen:
chmod 644 /home/user/models/gguf/*.gguf - Verifizieren Sie das GGUF-Format:
file /home/user/models/gguf/phi3-mini.gguf # Sollte: "GGUF model file" anzeigen
Symptom: CUDA out of memory oder malloc failed
Lösungen:
- Reduzieren Sie GPU-Layer:
{"gpu_layers": 20} // Statt -1 - Verwenden Sie stärker quantisiertes Modell:
- Q4_K_M → Q2_K (kleiner, aber niedrigere Qualität)
- Reduzieren Sie Context-Size:
{"context_size": 2048} // Statt 4096
Symptom: Generierung dauert sehr lange
Lösungen:
- Aktivieren Sie GPU:
{"gpu_layers": -1} - Überprüfen Sie GPU-Nutzung:
nvidia-smi # GPU-Utilization sollte >80% sein - Verwenden Sie kleineres Modell:
- Phi-3 Mini (3B) statt Llama-70B
- Aktivieren Sie KV-Cache:
{"cache_prompt": true}
Symptom: LLM generiert unsinnige oder irrelevante Antworten
Lösungen:
- Adjustieren Sie Temperature:
{"temperature": 0.7} // Höher = kreativer, niedriger = deterministischer - Verwenden Sie besseres Prompt-Template:
System: Du bist ein hilfreicher Assistent... User: [Klare, spezifische Frage] - Laden Sie weniger quantisiertes Modell:
- Q2_K → Q4_K_M → Q8_0 (größer, aber höhere Qualität)
Symptom: Compilation schlägt fehl
Lösungen:
- Verifizieren Sie llama.cpp ist geklont:
ls -la llama.cpp/
- Aktualisieren Sie vcpkg:
cd vcpkg git pull ./bootstrap-vcpkg.sh - Cleanen und neu bauen:
rm -rf build/ mkdir build && cd build cmake .. -DTHEMIS_ENABLE_LLM=ON cmake --build . -j
📝 Ausführliches Troubleshooting: Known Issues
- 📖 Quick Start Guide - Erste Schritte mit ThemisDB
- 🔨 Build Strategy Guide - Detaillierte Build-Anweisungen
- 🐳 Docker Deployment - Container-Setup
- 🧠 LLM Übersicht - Alle LLM-Features
- 🔌 Plugin Development - Eigene LLM-Plugins
- 📦 llama.cpp Integration - Technische Details
- 🎯 Native LLM Concept - Architektur-Overview
- 🔍 Vector Operations - Vector Search Features
- 🧩 Semantic Cache - Embedding-Cache
- 📊 Graph Features - Graph-basierte RAG
- 🎓 Beispiel 07: Vector Search & RAG - Vollständiges RAG-Beispiel
- 🚁 Beispiel 10: Drohnenbild-Analyse - Komplexes LLM + Vision Beispiel
- 📚 Alle Beispiele - Übersicht
- ⚡ LLM/NLP Integration Quickstart - Performance-Tests
- 📊 LLM Integration Framework - Test-Framework
- 🎮 Ollama & vLLM Features - Alternative Backends
- 🏢 Enterprise LLM Feedback - Production Best Practices
- 🔐 Thread Safety - Concurrency
Bei Fragen oder Problemen:
- 🐛 GitHub Issues - Bug Reports
- 💬 GitHub Discussions - Community Q&A
- 📖 Dokumentation - Vollständige Docs
Möchten Sie beitragen?
- 🤝 Contributing Guide - Wie Sie beitragen können
- 📋 LLM Roadmap - Geplante Features
| Version | Datum | Änderungen |
|---|---|---|
| 1.0 | 2025-12-22 | Initiale Version des Guides |
Viel Erfolg mit ThemisDB und LLM-Integration! 🚀
Bei Fragen: GitHub Discussions
ThemisDB v1.3.4 | GitHub | Documentation | Discussions | License
Last synced: January 02, 2026 | Commit: 6add659
Version: 1.3.0 | Stand: Dezember 2025
- Übersicht
- Home
- Dokumentations-Index
- Quick Reference
- Sachstandsbericht 2025
- Features
- Roadmap
- Ecosystem Overview
- Strategische Übersicht
- Geo/Relational Storage
- RocksDB Storage
- MVCC Design
- Transaktionen
- Time-Series
- Memory Tuning
- Chain of Thought Storage
- Query Engine & AQL
- AQL Syntax
- Explain & Profile
- Rekursive Pfadabfragen
- Temporale Graphen
- Zeitbereichs-Abfragen
- Semantischer Cache
- Hybrid Queries (Phase 1.5)
- AQL Hybrid Queries
- Hybrid Queries README
- Hybrid Query Benchmarks
- Subquery Quick Reference
- Subquery Implementation
- Content Pipeline
- Architektur-Details
- Ingestion
- JSON Ingestion Spec
- Enterprise Ingestion Interface
- Geo-Processor Design
- Image-Processor Design
- Hybrid Search Design
- Fulltext API
- Hybrid Fusion API
- Stemming
- Performance Tuning
- Migration Guide
- Future Work
- Pagination Benchmarks
- Enterprise README
- Scalability Features
- HTTP Client Pool
- Build Guide
- Implementation Status
- Final Report
- Integration Analysis
- Enterprise Strategy
- Verschlüsselungsstrategie
- Verschlüsselungsdeployment
- Spaltenverschlüsselung
- Encryption Next Steps
- Multi-Party Encryption
- Key Rotation Strategy
- Security Encryption Gap Analysis
- Audit Logging
- Audit & Retention
- Compliance Audit
- Compliance
- Extended Compliance Features
- Governance-Strategie
- Compliance-Integration
- Governance Usage
- Security/Compliance Review
- Threat Model
- Security Hardening Guide
- Security Audit Checklist
- Security Audit Report
- Security Implementation
- Development README
- Code Quality Pipeline
- Developers Guide
- Cost Models
- Todo Liste
- Tool Todo
- Core Feature Todo
- Priorities
- Implementation Status
- Roadmap
- Future Work
- Next Steps Analysis
- AQL LET Implementation
- Development Audit
- Sprint Summary (2025-11-17)
- WAL Archiving
- Search Gap Analysis
- Source Documentation Plan
- Changefeed README
- Changefeed CMake Patch
- Changefeed OpenAPI
- Changefeed OpenAPI Auth
- Changefeed SSE Examples
- Changefeed Test Harness
- Changefeed Tests
- Dokumentations-Inventar
- Documentation Summary
- Documentation TODO
- Documentation Gap Analysis
- Documentation Consolidation
- Documentation Final Status
- Documentation Phase 3
- Documentation Cleanup Validation
- API
- Authentication
- Cache
- CDC
- Content
- Geo
- Governance
- Index
- LLM
- Query
- Security
- Server
- Storage
- Time Series
- Transaction
- Utils
Vollständige Dokumentation: https://makr-code.github.io/ThemisDB/