Open Workspace ist eine Local-First Kognitions-Architektur. Es handelt sich um eine Offline-PWA, die als kollaborativer Partner agiert. Durch die strikte Implementierung der offenen Standards Agent2Agent (A2A) und Agent2UI (A2UI) verschmilzt die Grenze zwischen statischem Interface und generativer AI-Interaktion.
- Übersicht (Dashboard): Echtzeit-Übersicht mit adaptivem Masonry-Layout für optimale Platznutzung
- Wissensbasis: Markdown-Notizen mit Professional-Editor (Toolbar) und Umbenennung
- Agent2Agent Protocol: Standardisierte Kommunikation zwischen AI-Agenten
- Agent2UI: Dynamische UI-Generierung durch Agenten
- Semantic Data Layer: JSON-LD Knowledge Graph (Schema.org compliant)
- Model Context Protocol (MCP): Integration externer Tools und Datenquellenansicht
- Pinnwand: Visuelle Planung mit Karten und Verbindungen
- Aufgaben: Projekte und Aufgabenverwaltung im Kanban-Stil
- Kalender: ICS/iCal Integration mit Monats-/Wochenansicht
- Global Finder: Smarte Suche (
Cmd+F) mit Modifiers (@task,@note) und Fuzzy-Matching - Werkzeuge (Tools): Management von MCP-Servern und externen APIs
- Agenten: Dynamische Verwaltung von A2A Agenten (Lokal & Remote) mit Credential-Anbindung
- Kommunikation: Matrix-Protokoll Chat für Team-Kommunikation
- Persönlicher Assistent: Kontext-bewusster AI-Assistent mit Dynamic UI Generation (A2UI) und Chat-Historie
- Mobile First: Voll responsive UI mit Overlay-Sidebar und Burger-Menü
- Offline PWA: Volle Funktionalität ohne Internet
- Internationalisierung: Deutsch (Standard) / Englisch
- Framework: Next.js 16 (App Router)
- Sprache: TypeScript
- Styling: CSS Modules, Material Design 3
- State: Zustand, React Query
- Offline: Service Worker, IndexedDB
- AI Protokolle: A2A, A2UI, MCP
- Inference: Ollama API (lokal)
# Klonen und installieren
bun install
# Konfiguration (optional, aber empfohlen für AI)
cp .env.example .env.local
# -> Passe .env.local nach Bedarf an (lokale Ollama IP etc.)
# Entwicklungsserver starten
bun run devÖffne http://localhost:3000
Standard Inference-Endpunkt: http://localhost:11434 (Ollama Default)
Konfiguriere in .env.local:
NEXT_PUBLIC_LLM_API_BASE_URL=http://localhost:11434
NEXT_PUBLIC_LLM_API_KEY= # Optional
INFERENCE_MODEL=gpt-oss:20bDigital Zen Garden: Ruhige, fokussierte Oberfläche mit minimalen Ablenkungen. Neutrale Töne mit #00674F Teal-Akzent. Hell- und Dunkelmodus mit System-Präferenz-Erkennung.
Open Workspace implementiert ein Professional Credential Management System:
- Verschlüsselung: Lokale Secrets werden mit AES-256-GCM verschlüsselt (
data/secure/). - Verbindungen: Zentrale Verwaltung von Auth-Daten (Bearer, API Key, Basic) getrennt von Tools.
- Enterprise Ready: Unterstützung für Environment-Variablen (
ENV:MY_VAR) statt lokaler Speicherung.
src/
├── app/ # Seiten und API-Routen
├── components/ # Wiederverwendbare UI-Komponenten
├── lib/ # Core-Utilities und Clients
│ ├── inference/ # Ollama Client
│ └── storage/ # Datenspeicher (Notes, Tasks)
└── types/ # TypeScript Definitionen
data/
├── notes/ # Markdown-Notizen (GitHub-sync ready)
├── tasks/ # Aufgaben (JSON)
└── canvas/ # Canvas-Karten (JSON)
| Route | Beschreibung |
|---|---|
POST /api/chat |
AI Chat mit Streaming |
GET /api/chat/health |
Ollama Verbindungsstatus |
GET/POST /api/chat/conversations |
Chat-Historie verwalten |
GET /api/chat/conversations?action=events |
Kalender-Termine abrufen |
GET/POST /api/notes |
Notizen auflisten/erstellen |
GET/PUT/DELETE /api/notes/[id] |
Notiz bearbeiten |
GET/POST /api/tasks |
Aufgaben auflisten/erstellen |
GET/PUT/DELETE /api/tasks/[id] |
Aufgabe bearbeiten |
GET /api/finder |
Globaler Such-Endpunkt (Fuzzy + Smart Modifiers) |
GET/POST /api/calendar |
Kalender-Provider & Sync |
GET/POST/DELETE /api/tools |
Tool-Konfiguration (MCP/API) |
GET/POST/DELETE /api/connections |
Secure Connection Management |
GET/POST/DELETE /api/agents |
Agent Management (Lokal/Remote) |
- AGENTS.md - AI-Agent Protokoll und Architektur
- architecture_agents.md - Plan für Skalierbares Agenten-Ökosystem
- TODO.md - Entwicklungs-Roadmap
GPL-3.0 - Diese Software ist und bleibt Open Source.