mirror of
https://github.com/blakeblackshear/frigate.git
synced 2026-05-04 04:27:42 +03:00
fix some broken links
This commit is contained in:
parent
be35a90b83
commit
9b5a8bea7a
@ -43,7 +43,7 @@ cameras:
|
||||
input_args: preset-http-jpeg-generic
|
||||
```
|
||||
|
||||
流输出参数和注意事项与[MJPEG摄像头](#mjpeg-cameras)相同
|
||||
流输出参数和注意事项与[MJPEG摄像头](#mjpeg摄像头)相同
|
||||
|
||||
## RTMP摄像头
|
||||
|
||||
|
||||
@ -9,7 +9,7 @@ title: 人脸识别
|
||||
|
||||
### 人脸检测
|
||||
|
||||
当运行Frigate+模型(或任何原生支持人脸检测的自定义模型)时,应确保在[跟踪对象列表](../plus/#available-label-types)中添加`face`标签,可以是全局设置或针对特定摄像头。这将允许人脸检测与物体检测同时运行,提高效率。
|
||||
当运行Frigate+模型(或任何原生支持人脸检测的自定义模型)时,应确保在[跟踪对象列表](../plus/#可用标签类型)中添加`face`标签,可以是全局设置或针对特定摄像头。这将允许人脸检测与物体检测同时运行,提高效率。
|
||||
|
||||
当运行默认的COCO模型或其他不包含`face`作为可检测标签的模型时,人脸检测将通过CV2使用运行在CPU上的轻量级DNN模型进行。在这种情况下,您不应在跟踪对象列表中定义`face`。
|
||||
|
||||
|
||||
@ -78,7 +78,7 @@ done
|
||||
|
||||
:::note
|
||||
|
||||
默认驱动是`iHD`。如需要改为i965驱动,可能需要通过添加环境变量`LIBVA_DRIVER_NAME=i965`(在docker-compose文件中或[HA插件的config.yml](advanced.md#environment_vars)中)。
|
||||
默认驱动是`iHD`。如需要改为i965驱动,可能需要通过添加环境变量`LIBVA_DRIVER_NAME=i965`(在docker-compose文件中或[HA插件的config.yml](advanced.md#环境变量)中)。
|
||||
|
||||
参考[Intel文档](https://www.intel.com/content/www/us/en/support/articles/000005505/processors.html)确认您的CPU是第几代的。
|
||||
|
||||
|
||||
@ -109,7 +109,7 @@ cameras:
|
||||
特殊流: test_cam_another_sub
|
||||
```
|
||||
|
||||
### WebRTC额外配置:
|
||||
### WebRTC额外配置
|
||||
|
||||
WebRTC通过在端口`8555`上创建TCP或UDP连接工作。但是,它需要额外配置:
|
||||
|
||||
@ -170,7 +170,7 @@ services:
|
||||
|
||||
对于支持双向通话的设备,可以配置Frigate从Web UI的摄像头实时视图中使用该功能。您应该:
|
||||
|
||||
- 设置go2rtc与[WebRTC](#webrtc-extra-configuration)。
|
||||
- 设置go2rtc与[WebRTC](#webrtc额外配置)。
|
||||
- 确保通过https访问Frigate(可能需要[打开端口8971](/frigate/installation/#端口))。
|
||||
- 对于Home Assistant Frigate卡片,[按照文档](https://github.com/dermotduffy/frigate-hass-card?tab=readme-ov-file#using-2-way-audio)获取正确的源。
|
||||
|
||||
@ -217,7 +217,7 @@ Frigate在摄像头组编辑面板中提供了一个对话框,其中包含几
|
||||
|
||||
如果使用连续流媒体或在仪表板上同时加载多个高分辨率流,浏览器可能在超时前难以开始播放流。Frigate始终优先尽可能快地显示实时流,即使是较低质量的jsmpeg流。可以使用"重置"链接/按钮尝试再次加载高分辨率流。
|
||||
|
||||
如果Frigate仍然回退到低带宽模式,可能需要根据[上述建议](#camera_settings_recommendations)调整摄像头设置。
|
||||
如果Frigate仍然回退到低带宽模式,可能需要根据[上述建议](#摄像头设置建议)调整摄像头设置。
|
||||
|
||||
3. **我的摄像头似乎没有在实时仪表板上实时播放。为什么?**
|
||||
|
||||
|
||||
@ -15,22 +15,22 @@ Frigate支持多种不同类型的检测器,可在不同硬件上运行:
|
||||
|
||||
**通用硬件**
|
||||
|
||||
- [Coral EdgeTPU](#edge-tpu-detector):Google Coral EdgeTPU提供USB和m.2两种接口,兼容多种设备。
|
||||
- [Hailo](#hailo-8):Hailo8和Hailo8L AI加速模块提供m.2接口和树莓派HAT,兼容多种设备。
|
||||
- [Coral EdgeTPU](#edge-tpu检测器):Google Coral EdgeTPU提供USB和m.2两种接口,兼容多种设备。
|
||||
- [Hailo](#hailo-8检测器):Hailo8和Hailo8L AI加速模块提供m.2接口和树莓派HAT,兼容多种设备。
|
||||
|
||||
**AMD**
|
||||
|
||||
- [ROCm](#amdrocm-gpu-detector):ROCm可在AMD独立显卡上运行,提供高效对象检测。
|
||||
- [ROCm](#amdrocm-gpu检测器):ROCm可在AMD独立显卡上运行,提供高效对象检测。
|
||||
- [ONNX](#onnx):当配置了支持的ONNX模型时,ROCm会在`-rocm`版Frigate镜像中自动被检测并使用。
|
||||
|
||||
**Intel**
|
||||
|
||||
- [OpenVino](#openvino-detector):OpenVino可在Intel Arc 显卡、集成显卡和CPU上运行,提供高效对象检测。
|
||||
- [OpenVino](#openvino检测器):OpenVino可在Intel Arc 显卡、集成显卡和CPU上运行,提供高效对象检测。
|
||||
- [ONNX](#onnx):当配置了支持的ONNX模型时,OpenVINO会在标准Frigate镜像中自动被检测并使用。
|
||||
|
||||
**NVIDIA**
|
||||
|
||||
- [TensortRT](#nvidia-tensorrt-detector):TensorRT可在NVIDIA GPU和Jetson设备上运行,使用多种预设模型。
|
||||
- [TensortRT](#nvidia-tensorrt检测器):TensorRT可在NVIDIA GPU和Jetson设备上运行,使用多种预设模型。
|
||||
- [ONNX](#onnx):当配置了支持的ONNX模型时,TensorRT会在`-tensorrt`或`-tensorrt-jp6`版Frigate镜像中自动被检测并使用。
|
||||
|
||||
**Rockchip**
|
||||
@ -39,7 +39,7 @@ Frigate支持多种不同类型的检测器,可在不同硬件上运行:
|
||||
|
||||
**测试用途**
|
||||
|
||||
- [CPU检测器(不推荐实际使用)](#cpu-detector-not-recommended):使用CPU运行tflite模型,不推荐使用,在大多数情况下使用OpenVINO CPU模式可获得更好效果。
|
||||
- [CPU检测器(不推荐实际使用)](#cpu检测器不推荐使用):使用CPU运行tflite模型,不推荐使用,在大多数情况下使用OpenVINO CPU模式可获得更好效果。
|
||||
|
||||
:::
|
||||
|
||||
@ -294,7 +294,7 @@ model:
|
||||
|
||||
#### YOLO-NAS模型
|
||||
|
||||
[YOLO-NAS](https://github.com/Deci-AI/super-gradients/blob/master/YOLONAS.md)模型受支持,但默认不包含。有关下载YOLO-NAS模型用于Frigate的更多信息,请参阅[模型部分](#downloading-yolo-nas-model)。
|
||||
[YOLO-NAS](https://github.com/Deci-AI/super-gradients/blob/master/YOLONAS.md)模型受支持,但默认不包含。有关下载YOLO-NAS模型用于Frigate的更多信息,请参阅[模型部分](#下载yolo-nas模型)。
|
||||
|
||||
将下载的onnx模型放入配置文件夹后,可以使用以下配置:
|
||||
|
||||
@ -348,7 +348,7 @@ model:
|
||||
|
||||
#### RF-DETR模型
|
||||
|
||||
[RF-DETR](https://github.com/roboflow/rf-detr)是基于DETR的模型。支持导出的ONNX模型,但默认不包含。有关下载RF-DETR模型用于Frigate的更多信息,请参阅[模型部分](#downloading-rf-detr-model)。
|
||||
[RF-DETR](https://github.com/roboflow/rf-detr)是基于DETR的模型。支持导出的ONNX模型,但默认不包含。有关下载RF-DETR模型用于Frigate的更多信息,请参阅[模型部分](#下载rf-detr模型)。
|
||||
|
||||
:::warning
|
||||
|
||||
@ -375,7 +375,7 @@ model:
|
||||
|
||||
#### D-FINE模型
|
||||
|
||||
[D-FINE](https://github.com/Peterande/D-FINE)是基于DETR的模型。支持导出的ONNX模型,但默认不包含。有关下载D-FINE模型用于Frigate的更多信息,请参阅[模型部分](#downloading-d-fine-model)。
|
||||
[D-FINE](https://github.com/Peterande/D-FINE)是基于DETR的模型。支持导出的ONNX模型,但默认不包含。有关下载D-FINE模型用于Frigate的更多信息,请参阅[模型部分](#下载d-fine模型)。
|
||||
|
||||
:::warning
|
||||
|
||||
@ -591,12 +591,12 @@ $ docker exec -it frigate /bin/bash -c '(unset HSA_OVERRIDE_GFX_VERSION && /opt/
|
||||
|
||||
### 支持的模型
|
||||
|
||||
有关支持的模型,请参阅[ONNX支持的模型](#supported-models),但有以下注意事项:
|
||||
有关支持的模型,请参阅[ONNX支持的模型](#支持的模型-3),但有以下注意事项:
|
||||
|
||||
- 不支持D-FINE模型
|
||||
- 已知YOLO-NAS模型在集成显卡上运行不佳
|
||||
|
||||
## ONNX检测器
|
||||
## ONNX
|
||||
|
||||
ONNX是一种用于构建机器学习模型的开放格式,Frigate支持在CPU、OpenVINO、ROCm和TensorRT上运行ONNX模型。启动时,Frigate会自动尝试使用可用的GPU。
|
||||
|
||||
@ -638,7 +638,7 @@ detectors:
|
||||
|
||||
#### YOLO-NAS
|
||||
|
||||
[YOLO-NAS](https://github.com/Deci-AI/super-gradients/blob/master/YOLONAS.md)模型受支持,但默认不包含。有关下载YOLO-NAS模型用于Frigate的更多信息,请参阅[模型部分](#downloading-yolo-nas-model)。
|
||||
[YOLO-NAS](https://github.com/Deci-AI/super-gradients/blob/master/YOLONAS.md)模型受支持,但默认不包含。有关下载YOLO-NAS模型用于Frigate的更多信息,请参阅[模型部分](#下载yolo-nas模型)。
|
||||
|
||||
将下载的onnx模型放入配置文件夹后,可以使用以下配置:
|
||||
|
||||
@ -663,7 +663,7 @@ YOLOv3、YOLOv4、YOLOv7和[YOLOv9](https://github.com/WongKinYiu/yolov9)模型
|
||||
|
||||
:::tip
|
||||
|
||||
YOLO检测器设计用于支持YOLOv3、YOLOv4、YOLOv7和YOLOv9模型,但也可能支持其他YOLO模型架构。有关下载YOLO模型用于Frigate的更多信息,请参阅[模型部分](#downloading-yolo-models)。
|
||||
YOLO检测器设计用于支持YOLOv3、YOLOv4、YOLOv7和YOLOv9模型,但也可能支持其他YOLO模型架构。有关下载YOLO模型用于Frigate的更多信息,请参阅[模型部分](#下载yolo模型)。
|
||||
|
||||
:::
|
||||
|
||||
@ -688,7 +688,7 @@ model:
|
||||
|
||||
#### YOLOx
|
||||
|
||||
[YOLOx](https://github.com/Megvii-BaseDetection/YOLOX)模型受支持,但默认不包含。有关下载YOLOx模型用于Frigate的更多信息,请参阅[模型部分](#downloading-yolo-models)。
|
||||
[YOLOx](https://github.com/Megvii-BaseDetection/YOLOX)模型受支持,但默认不包含。有关下载YOLOx模型用于Frigate的更多信息,请参阅[模型部分](#下载yolo模型)。
|
||||
|
||||
将下载的onnx模型放入配置文件夹后,可以使用以下配置:
|
||||
|
||||
@ -711,7 +711,7 @@ model:
|
||||
|
||||
#### RF-DETR
|
||||
|
||||
[RF-DETR](https://github.com/roboflow/rf-detr)是基于DETR的模型。支持导出的ONNX模型,但默认不包含。有关下载RF-DETR模型用于Frigate的更多信息,请参阅[模型部分](#downloading-rf-detr-model)。
|
||||
[RF-DETR](https://github.com/roboflow/rf-detr)是基于DETR的模型。支持导出的ONNX模型,但默认不包含。有关下载RF-DETR模型用于Frigate的更多信息,请参阅[模型部分](#下载rf-detr模型)。
|
||||
|
||||
将下载的onnx模型放入`config/model_cache`文件夹后,可以使用以下配置:
|
||||
|
||||
@ -731,7 +731,7 @@ model:
|
||||
|
||||
#### D-FINE
|
||||
|
||||
[D-FINE](https://github.com/Peterande/D-FINE)是基于DETR的模型。支持导出的ONNX模型,但默认不包含。有关下载D-FINE模型用于Frigate的更多信息,请参阅[模型部分](#downloading-d-fine-model)。
|
||||
[D-FINE](https://github.com/Peterande/D-FINE)是基于DETR的模型。支持导出的ONNX模型,但默认不包含。有关下载D-FINE模型用于Frigate的更多信息,请参阅[模型部分](#下载d-fine模型)。
|
||||
|
||||
将下载的onnx模型放入`config/model_cache`文件夹后,可以使用以下配置:
|
||||
|
||||
|
||||
@ -154,7 +154,7 @@ record:
|
||||
|
||||
### 延时摄影导出
|
||||
|
||||
延时摄影导出只能通过[HTTP API](../integrations/api/export-recording-export-camera-name-start-start-time-end-end-time-post.api.mdx)实现。
|
||||
延时摄影导出只能通过[HTTP API](/integrations/api/export-recording-export-camera-name-start-start-time-end-end-time-post.api.mdx)实现。
|
||||
|
||||
默认情况下,延时摄影以25倍速和30FPS导出。这意味着每25秒的实际录像会被压缩为1秒的延时视频(无音频)。
|
||||
|
||||
|
||||
@ -5,7 +5,7 @@ title: 重流功能
|
||||
|
||||
## RTSP重流
|
||||
|
||||
Frigate可以将您的视频流重新以RTSP协议流式传输,供其他应用程序(如Home Assistant)使用,地址为`rtsp://<frigate_host>:8554/<camera_name>`。必须开放8554端口。[这样您就可以同时使用一个视频流进行Frigate检测和Home Assistant实时查看,而无需与摄像头建立两个独立连接](#reduce-connections-to-camera)。视频流直接从原始视频流复制,避免重新编码。此流不包含Frigate的任何标注。
|
||||
Frigate可以将您的视频流重新以RTSP协议流式传输,供其他应用程序(如Home Assistant)使用,地址为`rtsp://<frigate_host>:8554/<camera_name>`。必须开放8554端口。[这样您就可以同时使用一个视频流进行Frigate检测和Home Assistant实时查看,而无需与摄像头建立两个独立连接](#减少摄像头连接数)。视频流直接从原始视频流复制,避免重新编码。此流不包含Frigate的任何标注。
|
||||
|
||||
Frigate使用[go2rtc](https://github.com/AlexxIT/go2rtc/tree/v1.9.9)提供重流和MSE/WebRTC功能。go2rtc配置位于配置文件的`go2rtc`部分,更多高级配置和功能请参阅[go2rtc文档](https://github.com/AlexxIT/go2rtc/tree/v1.9.9#configuration)。
|
||||
|
||||
|
||||
@ -66,7 +66,7 @@ cameras:
|
||||
|
||||
## 将回放条目限制在特定区域
|
||||
|
||||
默认情况下,如果在摄像头画面的任何位置检测到任何`review -> alerts -> labels`和`review -> detections -> labels`,就会创建一个回放条目。您可能需要配置回放条目,使其仅在对象进入感兴趣区域时才创建,[详见区域文档](./zones.md#restricting-alerts-and-detections-to-specific-zones)
|
||||
默认情况下,如果在摄像头画面的任何位置检测到任何`review -> alerts -> labels`和`review -> detections -> labels`,就会创建一个回放条目。您可能需要配置回放条目,使其仅在对象进入感兴趣区域时才创建,[详见区域文档](./zones.md#限定警报和检测到特定区)
|
||||
|
||||
:::info
|
||||
|
||||
|
||||
@ -3,7 +3,7 @@ id: snapshots
|
||||
title: 快照功能
|
||||
---
|
||||
|
||||
Frigate可以为每个检测到的对象保存快照图片到`/media/frigate/clips`目录,文件命名为`<摄像头名称>-<ID>.jpg`格式。这些快照也可以通过[API接口](../integrations/api/event-snapshot-events-event-id-snapshot-jpg-get.api.mdx)访问。
|
||||
Frigate可以为每个检测到的对象保存快照图片到`/media/frigate/clips`目录,文件命名为`<摄像头名称>-<ID>.jpg`格式。这些快照也可以通过[API接口](/integrations/api/event-snapshot-events-event-id-snapshot-jpg-get.api.mdx)访问。
|
||||
|
||||
对于启用了Frigate+的用户,快照可以在Frigate+面板中查看,方便快速提交到Frigate+服务。
|
||||
|
||||
|
||||
@ -149,7 +149,7 @@ ui:
|
||||
unit_system: metric
|
||||
```
|
||||
|
||||
估算速度会显示在调试视图和MQTT事件中,详见[MQTT文档](../integrations/mqtt.md#frigateevents)。
|
||||
估算速度会显示在调试视图和MQTT事件中,详见[MQTT文档](/integrations/mqtt.md#frigateevents)。
|
||||
|
||||
#### 最佳实践与注意事项
|
||||
|
||||
|
||||
@ -13,9 +13,9 @@ title: 向主代码库贡献代码
|
||||
|
||||
从这里,按照以下指南进行操作:
|
||||
|
||||
- [核心](#core)
|
||||
- [Web界面](#web-interface)
|
||||
- [文档](#documentation)
|
||||
- [核心](#核心)
|
||||
- [Web界面](#web界面)
|
||||
- [文档](#文档)
|
||||
|
||||
### Frigate Home Assistant插件
|
||||
|
||||
@ -25,7 +25,7 @@ title: 向主代码库贡献代码
|
||||
|
||||
### Frigate Home Assistant集成
|
||||
|
||||
这个仓库包含了自定义集成,可以让你的Home Assistant安装自动为Frigate实例创建实体,无论你是将Frigate作为独立的Docker容器运行还是作为[Home Assistant插件](#frigate-home-assistant-add-on)运行。
|
||||
这个仓库包含了自定义集成,可以让你的Home Assistant安装自动为Frigate实例创建实体,无论你是将Frigate作为独立的Docker容器运行还是作为[Home Assistant插件](#frigate-home-assistant插件)运行。
|
||||
|
||||
将[blakeblackshear/frigate-hass-integration](https://github.com/blakeblackshear/frigate-hass-integration)复制到你自己的GitHub账户,然后将复制的仓库克隆到你的本地机器。
|
||||
|
||||
|
||||
@ -19,7 +19,7 @@ title: 配置 go2rtc
|
||||
|
||||
为获得最佳体验,你应该将 `go2rtc` 下的流名称设置为与摄像头名称相匹配,这样 Frigate 就可以自动映射并为摄像头使用更好的实时查看选项。
|
||||
|
||||
更多信息请参见[实时查看文档](../configuration/live.md#setting-stream-for-live-ui)。
|
||||
更多信息请参见[实时查看文档](../configuration/live.md#为实时页面设置视频流)。
|
||||
|
||||
:::
|
||||
|
||||
|
||||
@ -314,4 +314,4 @@ cameras:
|
||||
2. [区域](../configuration/zones.md)
|
||||
3. [回顾](../configuration/review.md)
|
||||
4. [遮罩](../configuration/masks.md)
|
||||
5. [Home Assistant集成](../integrations/home-assistant.md) - 与Home Assistant集成
|
||||
5. [Home Assistant集成](/integrations/home-assistant.md) - 与Home Assistant集成
|
||||
@ -5,7 +5,7 @@ title: Home Assistant 通知
|
||||
|
||||
开始使用Frigate通知的最佳方式是使用[蓝图](https://community.home-assistant.io/t/frigate-mobile-app-notifications-2-0/559732)。你可以使用蓝图生成的yaml作为起点,然后根据需要进行自定义。
|
||||
|
||||
通常建议基于`frigate/reviews` mqtt主题来触发通知。这提供了获取[缩略图/快照/剪辑](../integrations/home-assistant.md#notification-api)所需的event_id以及其他用于自定义何时何地接收警报的有用信息。数据以变更源的形式发布,这意味着你可以在`before`部分引用对象的"前一个状态",在`after`部分引用对象的"当前状态"。你可以在[这里](../integrations/mqtt.md#frigateevents)查看示例。
|
||||
通常建议基于`frigate/reviews` mqtt主题来触发通知。这提供了获取[缩略图/快照/剪辑](/integrations/home-assistant.md#notification-api)所需的event_id以及其他用于自定义何时何地接收警报的有用信息。数据以变更源的形式发布,这意味着你可以在`before`部分引用对象的"前一个状态",在`after`部分引用对象的"当前状态"。你可以在[这里](/integrations/mqtt.md#frigateevents)查看示例。
|
||||
|
||||
以下是一个简单的跟踪对象通知自动化示例,它会为每个变更更新现有的通知。这意味着当Frigate找到"更好的"图像时,你在通知中看到的图像会更新。
|
||||
|
||||
|
||||
@ -218,7 +218,7 @@ https://HA_URL/api/frigate/notifications/<review-id>/review_preview.gif
|
||||
|
||||
#### RTSP URL模板
|
||||
|
||||
对于高级用例,可以使用[RTSP URL模板](#options)选项更改此行为。设置后,此字符串将覆盖从上述默认行为派生的默认流地址。此选项支持[jinja2模板](https://jinja.palletsprojects.com/),并且有来自[Frigate API](../integrations/api)的`camera`字典变量可用于模板。注意,模板中没有Home Assistant状态可用,只有来自Frigate的摄像头字典。
|
||||
对于高级用例,可以使用[RTSP URL模板](#options)选项更改此行为。设置后,此字符串将覆盖从上述默认行为派生的默认流地址。此选项支持[jinja2模板](https://jinja.palletsprojects.com/),并且有来自[Frigate API](/integrations/api)的`camera`字典变量可用于模板。注意,模板中没有Home Assistant状态可用,只有来自Frigate的摄像头字典。
|
||||
|
||||
当Frigate位于反向代理后面,和/或当默认流端口因其他原因(例如防火墙规则)无法访问Home Assistant时,这可能很有用。
|
||||
|
||||
|
||||
@ -5,7 +5,7 @@ title: 请求你的第一个模型
|
||||
|
||||
## 步骤1:上传并标注你的图片
|
||||
|
||||
在请求你的第一个模型之前,你需要向Frigate+上传并验证至少10张图片。上传、标注和验证的图片越多,结果就会越好。大多数用户在每个摄像头至少有100张已验证的图片后就开始看到非常好的结果。请记住要包含各种不同的条件。你需要在阴天、晴天、黎明、黄昏和夜间的图片。有关如何直接从Frigate轻松提交图片到Frigate+的说明,请参阅[集成文档](../integrations/plus.md#generate-an-api-key)。
|
||||
在请求你的第一个模型之前,你需要向Frigate+上传并验证至少10张图片。上传、标注和验证的图片越多,结果就会越好。大多数用户在每个摄像头至少有100张已验证的图片后就开始看到非常好的结果。请记住要包含各种不同的条件。你需要在阴天、晴天、黎明、黄昏和夜间的图片。有关如何直接从Frigate轻松提交图片到Frigate+的说明,请参阅[集成文档](/integrations/plus.md#generate-an-api-key)。
|
||||
|
||||
建议同时提交**正确检测样本**和**误报样本**。这将帮助模型区分什么是正确的检测,什么是错误的检测。你应该在所有图片中争取达到80%的正确检测样本和20%的误报样本的目标。如果你在特定区域遇到误报,在相似光照条件下提交该区域附近任何对象类型的正确检测样本将有助于教会模型在没有对象存在时该区域的样子。
|
||||
|
||||
|
||||
@ -13,7 +13,7 @@ title: 模型
|
||||
|
||||
订阅包含每年12次模型训练。取消订阅后,您仍可保留已训练模型的使用权。提交模型请求或购买额外训练需要有效订阅。
|
||||
|
||||
集成Frigate+的方法请参阅[集成文档](../integrations/plus.md)。
|
||||
集成Frigate+的方法请参阅[集成文档](/integrations/plus.md)。
|
||||
|
||||
## 可用模型类型
|
||||
|
||||
|
||||
Loading…
Reference in New Issue
Block a user