DOC/「数据不出域情况下的硬件 AI 方案(LLM)」调研 #354
leeduckgo
started this conversation in
Dim-Sum-AI-Lab ( DeSCI )
Replies: 0 comments
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
-
「数据不出域情况下的硬件 AI 方案(LLM)」是一个非常经典的**「端云协同」(Edge-Cloud Synergy)或「隐私优先架构」**的设计挑战。核心在于如何在 利用云端大模型强大推理能力 的同时,严守数据隐私边界。
对此提出两个关键问题:
针对这两个关键问题,以下是具体的架构设计建议:
核心设计:智能网关(The Intelligent Gateway)
在数据离开本地域之前,必须经过一个部署在本地硬件上的「智能网关」。这个网关承担了两项核心任务:
第一部分:需求分类(智能路由)
目标是尽可能在本地解决问题,只有必要时才请求云端。这需要一个多层级的分类机制。
意图识别(Intent Classification)
在本地硬件上运行一个轻量级模型(SLM, Small Language Model)或分类器(如 BERT-sized model),对用户 Prompt 进行语义分析。
2. 算力自适应(Computational Awareness)
分类不仅看「能不能做」,还要看「本地忙不忙」,如果本地的算力资源负载过高,可以将任务分类到「云端执行侧」。
第二部分:脱敏处理(隐私计算代理)
对于必须上云的任务,需要在本地网关进行「数据脱敏」。这通常采用 内容识别与替换 机制。
1. 识别(Detection):本地 NER 模型 在本地运行一个专门的命名实体识别(NER)模型,扫描 Prompt 中的敏感信息。
2. 替换与映射(Masking & Mapping): 不要直接删除,而是使用占位符(Token Replacement),并建立本地映射表。
{ "<NAME_1>": "王小明", "<PROJECT_X>": "A项目" }3. 云端推理(Cloud Inference): 云端大模型接收到的是脱敏后的请求。它会基于占位符进行逻辑推理。
4. 回填与还原(De-masking): 云端结果返回本地网关后,网关根据之前的映射表,将占位符还原为原始信息,再呈现给用户。
Beta Was this translation helpful? Give feedback.
All reactions