frigate/docs/i18n/zh/docusaurus-plugin-content-docs/current/configuration/semantic_search.md

116 lines
6.0 KiB
Markdown
Raw Normal View History

2025-04-29 16:20:14 +03:00
---
id: semantic_search
title: 语义搜索
---
Frigate中的语义搜索功能允许您通过图像本身、用户定义的文本描述或自动生成的描述来查找回顾项目中的跟踪对象。该功能通过为跟踪对象的图像和文本描述创建_嵌入向量_(数值向量表示)来实现。通过比较这些嵌入向量Frigate评估它们的相似度以提供相关的搜索结果。
Frigate使用来自[Jina AI](https://huggingface.co/jinaai)的模型创建嵌入向量并保存到Frigate数据库中。所有处理都在本地运行。
语义搜索功能可通过Frigate网页中的 **浏览** 页面访问。
## 最低系统要求
语义搜索通过在本地系统上运行大型AI模型实现。树莓派等小型或性能不足的系统可能无法可靠运行或完全无法运行语义搜索。
使用语义搜索至少需要8GB内存。虽然GPU不是严格必需的但相比仅使用CPU的系统GPU能显著提升性能。
为获得最佳性能建议使用16GB或更多内存和专用GPU。
## 配置
语义搜索默认禁用必须在配置文件或UI设置页面中启用后才能使用。语义搜索是全局配置设置。
```yaml
semantic_search:
enabled: True
reindex: False
```
:::tip
通过添加`reindex: True`到`semantic_search`配置中或在UI的搜索设置页面切换开关并重启Frigate可以从数据库中现有的跟踪对象重新创建嵌入向量索引。根据跟踪对象的数量此过程可能需要较长时间并可能在索引时使CPU达到最大负载。确保在再次重启Frigate前关闭UI中的开关或将配置改回`False`。
如果是首次启用语义搜索请注意Frigate不会自动为较旧的跟踪对象创建索引。您需要启用`reindex`功能来完成此操作。
:::
### Jina AI CLIP (版本1)
[Jina的V1模型](https://huggingface.co/jinaai/jina-clip-v1)具有视觉模型,能够将图像和文本嵌入到相同的向量空间中,从而实现`图像->图像`和`文本->图像`的相似性搜索。Frigate使用此模型对跟踪对象进行编码将缩略图图像存储在数据库中。当通过搜索框中的文本搜索跟踪对象时Frigate将执行`文本->图像`相似性搜索。当在跟踪对象详情面板中点击"查找相似"时Frigate将执行`图像->图像`相似性搜索以检索最匹配的缩略图。
V1文本模型用于嵌入跟踪对象描述并对其执行搜索。描述可以在浏览页面点击跟踪对象缩略图时创建、查看和修改。有关如何自动生成跟踪对象描述的更多信息请参阅[生成式AI文档](/configuration/genai.md)。
通过设置`model_size`配置选项为`small`或`large`可以选择不同权重的Jina模型版本
```yaml
semantic_search:
enabled: True
model: "jinav1"
model_size: small
```
- 配置`large`模型将使用完整的Jina模型如果适用会自动在GPU上运行。
- 配置`small`模型将使用量化版本的Jina模型占用更少内存并在CPU上运行嵌入质量差异可以忽略不计。
### Jina AI CLIP (版本2)
Frigate也支持[Jina的V2模型](https://huggingface.co/jinaai/jina-clip-v2),该模型引入了多语言支持(89种语言)。相比之下V1模型仅支持英语。
V2在文本-图像和文本-文本检索任务中仅比V1有3%的性能提升这种改进不太可能带来明显的实际好处。此外V2对RAM和GPU的要求显著提高导致推理时间和内存使用增加。如果您计划使用V2请确保系统有充足的内存和独立GPU。不建议在CPU上使用V2的`small`模型进行推理。
要使用V2模型请更新配置中的`model`参数:
```yaml
semantic_search:
enabled: True
model: "jinav2"
model_size: large
```
对于大多数用户特别是英语母语者V1模型仍然是推荐选择。
:::note
在V1和V2之间切换需要重新创建嵌入向量索引。为此在语义搜索配置中设置`reindex: True`并重启Frigate。V1和V2的嵌入向量不兼容如果不重新索引将导致搜索结果不正确。
:::
### GPU加速
CLIP模型以ONNX格式下载当可用时`large`模型可以使用GPU硬件加速。这取决于使用的Docker构建版本。
```yaml
semantic_search:
enabled: True
model_size: large
```
:::info
如果使用了适合您GPU的正确构建版本并配置了`large`模型GPU将被自动检测并使用。
**注意:** 对象检测和语义搜索是独立的功能。如果想在语义搜索中使用GPU必须选择适合您GPU的Frigate Docker镜像。
- **AMD**
- 在`-rocm` Frigate镜像中ROCm将被自动检测并用于语义搜索。
- **Intel**
- 在默认Frigate镜像中OpenVINO将被自动检测并用于语义搜索。
- **Nvidia**
- 在`-tensorrt` Frigate镜像中Nvidia GPU将被自动检测并用于语义搜索。
- 在`-tensorrt-jp(4/5)` Frigate镜像中Jetson设备将被自动检测并用于语义搜索。
:::
## 使用方法和最佳实践
1. 语义搜索与浏览页面上的其他过滤器结合使用效果最佳。结合传统过滤和语义搜索可获得最佳结果。
2. 当搜索场景中的特定对象时使用缩略图搜索类型。当尝试辨别对象意图时使用描述搜索类型。
3. 由于Frigate使用的AI模型训练方式在多模态(缩略图和描述)搜索中,匹配描述的结果通常会先出现,即使缩略图嵌入可能是更好的匹配。尝试调整"搜索类型"设置以帮助找到所需内容。请注意,如果仅为特定对象或区域生成描述,可能导致搜索结果优先显示有描述的对象,即使没有描述的对象更相关。
4. 使搜索语言和语气与您要查找的内容紧密匹配。如果使用缩略图搜索,将查询短语作为图像标题。搜索"红色汽车"可能不如"阳光明媚的住宅区街道上行驶的红色轿车"效果好。
5. 缩略图的语义搜索在匹配占据大部分画面的大主体时效果更好。"猫"等小物体往往效果不佳。
6. 多尝试!找到一个想测试的跟踪对象,开始输入关键词和短语,看看什么对您有效。