"description":"Aktivieren oder deaktivieren Sie die Erkennung von Audioereignissen für alle Kameras; diese Einstellung kann für jede Kamera individuell überschrieben werden."
"description":"Mindest-RMS-Lautstärkeschwelle, die für die Audioerkennung erforderlich ist; niedrigere Werte erhöhen die Empfindlichkeit (z. B. 200 hoch, 500 mittel, 1000 niedrig)."
},
"listen":{
"description":"Liste der zu erkennenden Audioereignisse (z.B: bellen, Feueralarm, schreien, sprechen, rufen).",
"label":"Hörtypen"
},
"filters":{
"label":"Audiofilter",
"description":"Filtereinstellungen pro Audiotyp, wie z. B. Konfidenzschwellenwerte, die zur Reduzierung von Fehlalarmen verwendet werden."
"description":"Schlüssel-/Wertpaare für Umgebungsvariablen des Frigate-Prozesses in Home Assistant OS. Nicht-HAOS Benutzer müssen anstatt dessen Docker Umgebungsvariablen nutzen."
},
"logger":{
"label":"Protokollierung",
"description":"Steuert die Standard-Protokollierungsausführlichkeit und Überschreibungen der Protokollierungsstufe pro Komponente.",
"description":"Überschreiben der Protokollierungsstufe pro Komponente, um die Ausführlichkeit für bestimmte Module zu erhöhen oder zu verringern."
}
},
"auth":{
"label":"Authentifizierung",
"description":"Einstellungen für die Authentifizierung und Sitzungen, einschließlich Optionen für Cookies und Limits.",
"enabled":{
"label":"Authentifizierung aktivieren",
"description":"Aktivierung native Authentifizierung für Frigate UI."
},
"reset_admin_password":{
"label":"Zurücksetzen vom Admin Passwort",
"description":"Wenn wahr, wird das Passwort beim nächsten start zurückgesetzt und das neue Passwort steht in den Logs."
},
"cookie_name":{
"label":"JWT cookie Name",
"description":"Name des Cookies, das zum Speichern des JWT-Tokens für die native Authentifizierung verwendet wird."
},
"cookie_secure":{
"label":"Sicheres Cookie-Flag",
"description":"Setzen Sie das Sicherheitsflag im Authentifizierungs-Cookie; sollte bei Verwendung von TLS auf „true“ gesetzt sein."
},
"session_length":{
"label":"Sitzungssdauer",
"description":"Sitzungsdauer in Sekunden für JWT-basierte Sitzungen."
},
"refresh_time":{
"label":"Sitzung aktualisieren",
"description":"Wenn eine Sitzung innerhalb dieser Sekunden abläuft, aktualisieren Sie sie wieder auf ihre volle Länge."
},
"failed_login_rate_limit":{
"label":"Fehlgeschlagene Anmeldeversuche",
"description":"Begrenzungsregeln für fehlgeschlagene Anmeldeversuche zur Reduzierung von Brute-Force-Angriffen."
},
"trusted_proxies":{
"label":"Vertrauenswürdige Proxys",
"description":"Liste vertrauenswürdiger Proxy-IPs, die bei der Ermittlung der Client-IP für die Ratenbegrenzung verwendet werden."
},
"hash_iterations":{
"label":"Hash-Iterationen",
"description":"Anzahl der PBKDF2-SHA256-Iterationen, die beim Hashing von Benutzerkennwörtern verwendet werden sollen."
},
"roles":{
"label":"Rollen zuweisen",
"description":"Ordnen Sie Rollen zu Kameralisten zu. Eine leere Liste gewährt der Rolle Zugriff auf alle Kameras."
},
"admin_first_time_login":{
"label":"Erstmalige Admin-Markierung",
"description":"Wenn dies zutrifft, zeigt die Benutzeroberfläche möglicherweise einen Hilfe-Link auf der Anmeldeseite an, der Benutzer darüber informiert, wie sie sich nach einer Zurücksetzung des Administratorpassworts anmelden können. "
}
},
"audio_transcription":{
"label":"Audio-Transkription",
"description":"Einstellungen für Live- und Sprach-Audio-Transkription, die für Veranstaltungen und Live-Untertitel verwendet werden.",
"live_enabled":{
"label":"Live-Transkription",
"description":"Aktivieren Sie die Live-Transkription für Audio, sobald es empfangen wird."
"description":"Automatische Audio-Transkription für alle Kameras aktivieren oder deaktivieren; kann für jede Kamera einzeln überschrieben werden."
},
"language":{
"label":"Transkriptsprache",
"description":"Für die Transkription/Übersetzung verwendeter Sprachcode (z. B. „en“ für Englisch). Eine Liste der unterstützten Sprachcodes finden Sie unter https://whisper-api.com/docs/languages/."
},
"device":{
"label":"Transkriptionsgerät",
"description":"Geräteschlüssel (CPU/GPU), auf dem das Transkriptionsmodell ausgeführt werden soll. Derzeit werden für die Transkription nur NVIDIA-CUDA-GPUs unterstützt."
},
"model_size":{
"label":"Modellgröße",
"description":"Modellgröße für die Transkription von Audioereignissen im Offline-Modus."
"description":"Leiten Sie den Birdseye-Ausgang als RTSP-Feed weiter; wenn Sie diese Option aktivieren, läuft Birdseye ununterbrochen weiter."
},
"width":{
"label":"Breite",
"description":"Ausgabebreite (Pixel) des zusammengesetzten Birdseye-Bildes."
},
"height":{
"label":"Höhe",
"description":"Ausgabehöhe (in Pixeln) des zusammengesetzten Birdseye-Bildes."
},
"quality":{
"label":"Codierungsqualität",
"description":"Codierungsqualität für den Birdseye-MPEG-1-Feed (1 = höchste Qualität, 31 = niedrigste Qualität)."
},
"inactivity_threshold":{
"label":"Schwellenwert für Inaktivität",
"description":"Sekunden der Inaktivität, nach denen eine Kamera nicht mehr in Birdseye angezeigt wird."
},
"layout":{
"label":"Layout",
"description":"Layoutoptionen für die Birdseye-Komposition.",
"scaling_factor":{
"label":"Skalierungsfaktor",
"description":"Vom Layout-Rechner verwendeter Skalierungsfaktor (Bereich 1,0 bis 5,0)."
},
"max_cameras":{
"label":"Max. Anzahl Kameras",
"description":"Maximale Anzahl der Kameras, die gleichzeitig in Birdseye angezeigt werden können; es werden die neuesten Kameras angezeigt."
}
},
"idle_heartbeat_fps":{
"label":"FPS im Leerlauf",
"description":"Bilder pro Sekunde, um das zuletzt erstellte Birdseye-Bild im Leerlauf erneut zu senden; auf 0 setzen, um die Funktion zu deaktivieren."
"description":"Einstellungen für die SQLite-Datenbank, die von Frigate zum Speichern von verfolgten Objekten und Aufzeichnungsmetadaten verwendet wird.",
"description":"Einstellungen für die Erkennungs-/Detektionsrolle, die zum Ausführen der Objekterkennung und zum Initialisieren von Trackern verwendet wird.",
"description":"Höhe (Pixel) der für den Erkennungsstrom verwendeten Frames; leer lassen, um die native Stream-Auflösung zu verwenden."
},
"width":{
"label":"Breite erkennen",
"description":"Breite (Pixel) der für den Erkennungsstrom verwendeten Frames; leer lassen, um die native Stream-Auflösung zu verwenden."
},
"fps":{
"label":"FPS erkennen",
"description":"Gewünschte Bilder pro Sekunde für die Erkennung; niedrigere Werte reduzieren die CPU-Auslastung (empfohlener Wert ist 5, höhere Werte – maximal 10 – nur bei der Verfolgung extrem schnell bewegter Objekte einstellen)."
},
"min_initialized":{
"label":"Mindestanzahl an Initialisierungsframes",
"description":"Anzahl der aufeinanderfolgenden Erkennungserfolge, die vor der Erstellung eines verfolgten Objekts erforderlich sind. Erhöhen Sie diesen Wert, um Fehlinitialisierungen zu reduzieren. Der Standardwert ist fps geteilt durch 2."
},
"max_disappeared":{
"label":"Maximale Anzahl fehlender Frames",
"description":"Anzahl der Frames ohne Erkennung, bevor ein verfolgtes Objekt als verschwunden gilt."
},
"stationary":{
"label":"Konfiguration stationärer Objekte",
"description":"Einstellungen zum Erkennen und Verwalten von Objekten, die über einen bestimmten Zeitraum hinweg unbeweglich bleiben.",
"interval":{
"label":"Stationäres Intervall",
"description":"Wie oft (in Frames) soll eine Erkennungsprüfung durchgeführt werden, um ein stationäres Objekt zu bestätigen."
},
"threshold":{
"label":"Stationäre Schwelle",
"description":"Anzahl der Frames ohne Positionsänderung, die erforderlich sind, um ein Objekt als stationär zu markieren."
},
"max_frames":{
"label":"Maximale Bildanzahl",
"description":"Begrenzt, wie lange stationäre Objekte verfolgt werden, bevor sie verworfen werden.",
"default":{
"label":"Standardmäßige maximale Frames",
"description":"Standardmäßige maximale Anzahl von Frames, die ein stationäres Objekt verfolgt werden sollen, bevor die Verfolgung beendet wird."
},
"objects":{
"label":"Objekt max Rahmen",
"description":"Objektbezogene Überschreibungen für maximale Frames zur Verfolgung stationärer Objekte."
}
},
"classifier":{
"description":"Verwenden Sie einen visuellen Klassifikator, um wirklich stationäre Objekte auch dann zu erkennen, wenn die Begrenzungsrahmen flackern.",
"label":"Visuellen Klassifikator aktivieren"
}
},
"annotation_offset":{
"label":"Anmerkung Offset",
"description":"Millisekunden zur Verschiebung der Anmerkungen, um die Begrenzungsrahmen der Zeitleiste besser an die Aufnahmen anzupassen; kann positiv oder negativ sein."
}
},
"go2rtc":{
"label":"go2rtc",
"description":"Einstellungen für den integrierten go2rtc-Restreaming-Dienst, der für die Weiterleitung und Übersetzung von Live-Streams verwendet wird."
},
"mqtt":{
"label":"mqtt",
"description":"Einstellungen für die Verbindung und Veröffentlichung von Telemetriedaten, Momentaufnahmen und Ereignisdetails an einen MQTT-Broker.",
"enabled":{
"label":"mqtt aktiviert",
"description":"Aktivieren oder deaktivieren Sie die MQTT-Integration für Status, Ereignisse und Momentaufnahmen."
},
"host":{
"label":"mqtt Host",
"description":"Hostname oder IP-Adresse des MQTT-Brokers."
},
"port":{
"label":"mqtt Port",
"description":"Port des MQTT-Brokers (normalerweise 1883 für einfaches MQTT)."
},
"topic_prefix":{
"label":"Themenpräfix",
"description":"MQTT-Themenpräfix für alle Frigate-Themen; muss bei Ausführung mehrerer Instanzen eindeutig sein."
},
"client_id":{
"label":"Klient ID",
"description":"Klient-Kennung, die bei der Verbindung mit dem MQTT-Broker verwendet wird; sollte pro Instanz eindeutig sein."
},
"stats_interval":{
"label":"Statistikintervall",
"description":"Intervall in Sekunden für die Veröffentlichung von System- und Kamerastatistiken an MQTT."
},
"user":{
"label":"mqtt Benutzername",
"description":"Optionaler MQTT-Benutzername; kann über Umgebungsvariablen oder Geheimnisse bereitgestellt werden."
},
"password":{
"label":"mqtt Passwort",
"description":"Optionales MQTT-Passwort; kann über Umgebungsvariablen oder Geheimnisse bereitgestellt werden."
},
"tls_ca_certs":{
"label":"TLS CA certs",
"description":"Pfad zum CA-Zertifikat für TLS-Verbindungen zum Broker (für selbstsignierte Zertifikate)."
},
"tls_client_cert":{
"label":"Klient Zertifikat",
"description":"Client-Zertifikatpfad für die gegenseitige TLS-Authentifizierung; bei Verwendung von Client-Zertifikaten keine Benutzerdaten/Passwörter festlegen."
},
"tls_client_key":{
"label":"Klient Schlüssel",
"description":"Pfad zum privaten Schlüssel für das Client-Zertifikat."
},
"tls_insecure":{
"label":"TLS unsicher",
"description":"Unsichere TLS-Verbindungen zulassen, indem die Hostnamenüberprüfung übersprungen wird (nicht empfohlen)."
},
"qos":{
"label":"mqtt Qos",
"description":"Servicequalitätsstufe für MQTT-Veröffentlichungen/Abonnements (0, 1 oder 2)."
"description":"Einstellungen für die Gesichtserkennung und -identifizierung für alle Kameras; können für jede Kamera individuell angepasst werden.",
"model_size":{
"label":"Modellgröße",
"description":"Zu verwendende Modellgröße für Gesichts-Embeddings (klein/groß); bei größeren Modellen ist möglicherweise eine GPU erforderlich."
},
"unknown_score":{
"label":"Unbekannter Schwellenwert",
"description":"Abstandsschwelle, unterhalb derer ein Gesicht als potenzielle Übereinstimmung angesehen wird (höher = strenger)."
},
"detection_threshold":{
"label":"Erkennungsschwelle",
"description":"Mindestvertrauensgrad, der erforderlich ist, damit eine Gesichtserkennung als gültig angesehen wird."
},
"recognition_threshold":{
"label":"Erkennungsschwelle",
"description":"Schwellenwert für den Abstand bei der Gesichts-Einbettung, ab dem zwei Gesichter als übereinstimmend gelten."
},
"min_faces":{
"label":"Mindestens Gesichter",
"description":"Mindestanzahl an Gesichtserkennungen, die erforderlich sind, bevor einer Person ein erkanntes Unterlabel zugewiesen wird."
},
"save_attempts":{
"label":"Speicherungen",
"description":"Anzahl der Gesichtserkennungsversuche, die für die Benutzeroberfläche zur aktuellen Erkennung gespeichert werden sollen."
},
"blur_confidence_filter":{
"label":"Weichzeichnungsfilter",
"description":"Passen Sie die Konfidenzwerte anhand der Bildunschärfe an, um Fehlalarme bei Gesichtern von schlechter Qualität zu reduzieren."
},
"device":{
"label":"Gerät",
"description":"Dies ist eine Übersteuerung, um ein bestimmtes Gerät anzusprechen. Weitere Informationen finden Sie unter https://onnxruntime.ai/docs/execution-providers/"
"description":"Hardwarebeschleunigungsargumente für FFmpeg. Es werden providerspezifische Voreinstellungen empfohlen."
},
"input_args":{
"label":"Eingabeargumente",
"description":"Eingabeargumente, die auf FFmpeg-Eingabestreams angewendet werden."
},
"output_args":{
"label":"Ausgabeargumente",
"description":"Standardausgabeargumente, die für verschiedene FFmpeg-Rollen wie „detect“ und „record“ verwendet werden.",
"detect":{
"label":"Ausgabeargumente erkennen",
"description":"Standardausgabeargumente für das Erkennen von Rollenströmen."
},
"record":{
"label":"Ausgabeargumente aufzeichnen",
"description":"Standardausgabeargumente für Datensatzrollen-Streams."
}
},
"retry_interval":{
"label":"FFmpeg-Wiederholungszeit",
"description":"Sekunden, die gewartet werden sollen, bevor nach einem Fehler erneut versucht wird, eine Kamera-Übertragung herzustellen. Der Standardwert ist 10."
},
"apple_compatibility":{
"label":"Apple-Kompatibilität",
"description":"Aktivieren Sie die HEVC-Kennzeichnung für eine bessere Kompatibilität mit Apple-Playern bei der Aufnahme von H.265."
},
"gpu":{
"label":"GPU-Index",
"description":"Standard-GPU-Index, der für die Hardwarebeschleunigung verwendet wird, sofern verfügbar."
},
"inputs":{
"label":"Kameraeingänge",
"description":"Liste der Eingangsstromdefinitionen (Pfade und Rollen) für diese Kamera.",
"path":{
"label":"Eingabepfad",
"description":"URL oder Pfad des Kameraeingangsstroms."
},
"roles":{
"label":"Eingangsrollen",
"description":"Rollen für diesen Eingabestrom."
},
"global_args":{
"label":"Globale Argumente von FFmpeg",
"description":"Globale Argumente von FFmpeg für diesen Eingabestrom."
},
"hwaccel_args":{
"label":"Argumente für Hardwarebeschleunigung",
"description":"Hardwarebeschleunigungsargumente für diesen Eingabestrom."
},
"input_args":{
"label":"Eingabeargumente",
"description":"Für diesen Stream spezifische Eingabeargumente."
}
}
},
"networking":{
"label":"Vernetzung",
"description":"Netzwerkbezogene Einstellungen wie die Aktivierung von IPv6 für Frigate-Endpunkte.",
"ipv6":{
"label":"IPv6-Konfiguration",
"description":"IPv6-spezifische Einstellungen für Frigate-Netzwerkdienste.",
"enabled":{
"label":"IPv6 aktivieren",
"description":"Aktivieren Sie die IPv6-Unterstützung für Frigate-Dienste (API und Benutzeroberfläche), wo dies möglich ist."
}
},
"listen":{
"label":"Konfiguration der Listening-Ports",
"description":"Konfiguration für interne und externe Listening-Ports. Dies ist für fortgeschrittene Benutzer gedacht. Für die meisten Anwendungsfälle wird empfohlen, den Abschnitt „Ports“ Ihrer Docker-Compose-Datei zu ändern.",
"internal":{
"label":"interne port",
"description":"Interner Listening-Port für Frigate (Standard 5000)."
},
"external":{
"label":"Externer Anschluss",
"description":"Externer Listening-Port für Frigate (Standard 8971)."
}
}
},
"proxy":{
"label":"Proxy",
"description":"Einstellungen für die Integration von Frigate hinter einem Reverse-Proxy, der authentifizierte Benutzer-Header weiterleitet.",
"header_map":{
"label":"Header-Zuordnung",
"description":"Ordnen Sie eingehende Proxy-Header den Frigate-Benutzer- und Rollenfeldern für die proxybasierte Authentifizierung zu.",
"user":{
"label":"Benutzerkopfzeile",
"description":"Header, der den vom Upstream-Proxy bereitgestellten authentifizierten Benutzernamen enthält."
},
"role":{
"label":"Rollenüberschrift",
"description":"Header, der die Rolle oder Gruppen des authentifizierten Benutzers aus dem Upstream-Proxy enthält."
},
"role_map":{
"label":"Rollenabbildung",
"description":"Ordnen Sie die Werte der Upstream-Gruppe den Frigate-Rollen zu (z. B. ordnen Sie Admin-Gruppen der Admin-Rolle zu)."
}
},
"logout_url":{
"label":"Abmelde-URL",
"description":"URL, zu der Benutzer beim Abmelden über den Proxy weitergeleitet werden sollen."
},
"auth_secret":{
"label":"Proxy-Geheimnis",
"description":"Optionales Geheimnis, das anhand des X-Proxy-Secret-Headers überprüft wird, um vertrauenswürdige Proxys zu verifizieren."
},
"default_role":{
"label":"Standardrolle",
"description":"Standardrolle, die proxy-authentifizierten Benutzern zugewiesen wird, wenn keine Rollenzuordnung gilt (Admin oder Betrachter)."
},
"separator":{
"label":"Trennzeichen",
"description":"Zeichen, das zum Trennen mehrerer Werte in Proxy-Headern verwendet wird."
}
},
"live":{
"label":"Live-Wiedergabe",
"streams":{
"label":"Live-Stream Namen",
"description":"Zuordnung der konfigurierten Stream-Namen zu den für die Live-Wiedergabe verwendeten Restream-/Go2rtc-Namen."
},
"height":{
"label":"Live-Höhe",
"description":"Höhe (Pixel) zum Rendern des jsmpeg-Livestreams in der Web-Benutzeroberfläche; muss <= Stream-Höhe sein."
},
"quality":{
"label":"Live Qualität",
"description":"Kodierungsqualität für den jsmpeg-Stream (1 = höchst, 31 = niedrigst)."
"description":"Einstellungen zur Steuerung der Auflösung und Qualität des jsmpeg-Livestreams. Dies hat keine Auswirkungen auf weitergeleitete Kameras, die go2rtc für die Live-Ansicht verwenden."
"description":"Systemtelemetrie- und Statistikoptionen, einschließlich Überwachung der GPU- und Netzwerkbandbreite.",
"network_interfaces":{
"label":"Netzwerkschnittstellen",
"description":"Liste der Präfixe für Netzwerkschnittstellennamen, die für Bandbreitenstatistiken überwacht werden sollen."
},
"stats":{
"label":"Systemstatistiken",
"description":"Optionen zum Aktivieren/Deaktivieren der Erfassung verschiedener System- und GPU-Statistiken.",
"amd_gpu_stats":{
"label":"AMD GPU Statistik",
"description":"Aktivieren Sie die Erfassung von AMD-GPU-Statistiken, wenn eine AMD-GPU vorhanden ist."
},
"intel_gpu_stats":{
"label":"Intel GPU Statistik",
"description":"Aktivieren Sie die Erfassung von Intel-GPU-Statistiken, wenn eine Intel-GPU vorhanden ist."
},
"network_bandwidth":{
"label":"Netzwerk Bandbreite",
"description":"Aktivieren Sie die prozessbezogene Überwachung der Netzwerkbandbreite für Kamera-FFmpeg-Prozesse und Detektoren (erfordert entsprechende Funktionen)."
},
"intel_gpu_device":{
"label":"SR-IOV-Gerät",
"description":"Gerätekennung, die verwendet wird, wenn Intel-GPUs als SR-IOV behandelt werden, um die GPU-Statistiken zu korrigieren."
}
},
"version_check":{
"label":"Versionscheck",
"description":"Aktivieren Sie eine Outbound-Prüfung, um festzustellen, ob eine neuere Version von Frigate verfügbar ist."
}
},
"lpr":{
"label":"Kennzeichenerkennung",
"description":"Einstellungen für die Kennzeichenerkennung, einschließlich Erkennungsschwellen, Formatierung und bekannte Kennzeichen.",
"description":"Die Kennzeichenerkennung für alle Kameras aktivieren oder deaktivieren; die Einstellung kann für jede Kamera individuell überschrieben werden."
"description":"Zeit in Sekunden, nach der ein nicht erkanntes Kennzeichen aus dem Tracker gelöscht wird (nur für dedizierte LPR-Kameras)."
},
"min_area":{
"label":"Mindestplattenfläche",
"description":"Mindestplattenfläche (Pixel), die für einen Erkennungsversuch erforderlich ist."
},
"enhancement":{
"label":"Verbesserungsgrad",
"description":"Verstärkungsstufe (0-10) zur Anwendung auf Plattenaufnahmen vor der OCR; höhere Werte führen nicht immer zu besseren Ergebnissen, Stufen über 5 funktionieren möglicherweise nur bei Nachtaufnahmen und sollten mit Vorsicht verwendet werden."
"description":"Für die Texterkennung verwendete Modellgröße. Die meisten Benutzer sollten „klein“ wählen."
},
"detection_threshold":{
"label":"Erkennungsschwelle",
"description":"Schwellenwert für die Erkennungssicherheit, ab dem die OCR-Erkennung für ein verdächtiges Kennzeichen gestartet wird."
},
"recognition_threshold":{
"label":"Erkennungsschwelle",
"description":"Schwellwert für die Erkennungssicherheit, der erforderlich ist, damit der erkannte Text des Kennzeichens als Unterbezeichnung hinzugefügt wird."
},
"min_plate_length":{
"label":"Mindestplattenlänge",
"description":"Mindestanzahl an Zeichen, die ein erkanntes Kennzeichen enthalten muss, um als gültig zu gelten."
},
"format":{
"label":"Regulärer Ausdruck für das Plattenformat",
"description":"Optionaler regulärer Ausdruck zur Überprüfung der erkannten Kennzeichenfolgen auf Übereinstimmung mit einem erwarteten Format."
},
"match_distance":{
"label":"Entfernung",
"description":"Anzahl der zulässigen Zeichenabweichungen beim Vergleich erkannter Kennzeichen mit bekannten Kennzeichen."
},
"known_plates":{
"label":"Bekannte Schilder",
"description":"Liste der Kennzeichen oder regulären Ausdrücke, die besonders überwacht oder gemeldet werden sollen."
},
"debug_save_plates":{
"label":"Debug-Platten speichern",
"description":"Speichern Sie Ausschnitte aus den Plattenbildern zur Fehlerbehebung bei der LPR-Leistung."
},
"device":{
"label":"Gerät",
"description":"Dies ist eine Übersteuerung, um ein bestimmtes Gerät anzusprechen. Weitere Informationen finden Sie unter https://onnxruntime.ai/docs/execution-providers/"
},
"replace_rules":{
"label":"Ersatzregeln",
"description":"Reguläre Ausdrücke, die zur Normalisierung der erkannten Kennzeichen vor dem Abgleich verwendet werden.",
"description":"Vom Bewegungsmelder verwendeter Schwellenwert für Pixelunterschiede; höhere Werte verringern die Empfindlichkeit (Bereich 1–255)."
},
"lightning_threshold":{
"label":"Blitzschwelle",
"description":"Schwellenwert zum Erkennen und Ignorieren kurzer Beleuchtungsspitzen (niedrigerer Wert bedeutet höhere Empfindlichkeit, Werte zwischen 0,3 und 1,0). Dadurch wird die Bewegungserkennung nicht vollständig verhindert, sondern lediglich die Analyse weiterer Bilder durch den Detektor unterbrochen, sobald der Schwellenwert überschritten wird. Bewegungsbasierte Aufzeichnungen werden während dieser Ereignisse weiterhin erstellt."
},
"skip_motion_threshold":{
"label":"Schwellenwert für Bewegungsüberspringen",
"description":"Wenn sich mehr als dieser Anteil des Bildes in einem einzelnen Frame ändert, gibt der Detektor keine Bewegungsfelder zurück und kalibriert sich sofort neu. Dies kann CPU-Leistung sparen und Fehlalarme bei Blitzschlag, Gewittern usw. reduzieren, aber auch echte Ereignisse übersehen, wie z. B. eine PTZ-Kamera, die ein Objekt automatisch verfolgt. Der Kompromiss besteht darin, entweder einige Megabyte an Aufzeichnungen zu verlieren oder ein paar kurze Clips zu überprüfen. Leer lassen um diese Funktion zu deaktivieren."
"description":"Die Standard-Einstellungen für die Bewegungserkennung gelten für alle Kameras, sofern sie nicht für einzelne Kameras überschrieben werden."
"description":"TLS-Einstellungen für die Website von Frigate (Port 8971).",
"enabled":{
"label":"Aktivieren TLS",
"description":"Aktivieren Sie TLS für die Web-Benutzeroberfläche und die API von Frigate auf dem konfigurierten TLS-Port."
}
},
"ui":{
"label":"UI",
"description":"Benutzeroberflächen-Einstellungen wie Zeitzone, Zeit-/Datumsformatierung und Einheiten.",
"timezone":{
"label":"Zeitzone",
"description":"Optionale Zeitzone, die in der Benutzeroberfläche angezeigt werden soll (Standardmäßig wird die lokale Zeit des Browsers angezeigt, wenn keine Zeitzone festgelegt ist)."
},
"time_format":{
"label":"Zeitformat",
"description":"In der Benutzeroberfläche zu verwendendes Zeitformat (Browser, 12-Stunden- oder 24-Stunden-Format)."
},
"date_style":{
"label":"Datumsformat",
"description":"In der Benutzeroberfläche zu verwendendes Datumsformat (vollständig, lang, mittel, kurz)."
},
"time_style":{
"label":"Zeitstil",
"description":"In der Benutzeroberfläche zu verwendender Zeitstil (vollständig, lang, mittel, kurz)."
},
"unit_system":{
"label":"Einheitensystem",
"description":"Einheitensystem für die Anzeige (metrisch oder imperial), das in der Benutzeroberfläche und MQTT verwendet wird."
}
},
"detectors":{
"label":"Detektor-Hardware",
"description":"Konfiguration für Objektdetektoren (CPU, GPU, ONNX-Backends) und alle detektorspezifischen Modelleinstellungen.",
"label":"Pfad zum benutzerdefinierten Objekterkennungsmodell",
"description":"Pfad zu einer benutzerdefinierten Erkennungsmodelldatei (oder plus://<model_id> für Frigate+-Modelle)."
},
"labelmap_path":{
"label":"Label-Karte für benutzerdefinierten Objektdetektor",
"description":"Pfad zu einer Labelmap-Datei, die numerische Klassen für den Detektor String-Labels zuordnet."
},
"width":{
"label":"Eingabebreite des Objekterkennungsmodells",
"description":"Breite des Modell-Eingabetensors in Pixeln."
},
"height":{
"label":"Eingabehöhe des Objekterkennungsmodells",
"description":"Höhe des Modell-Eingabetensors in Pixeln."
},
"labelmap":{
"label":"Anpassung der Labelmap",
"description":"Überschreibt oder ordnet Einträge neu zu, um sie in die Standard-Labelmap zu integrieren."
},
"attributes_map":{
"label":"Zuordnung von Objektbezeichnungen zu ihren Attributbezeichnungen",
"description":"Zuordnung von Objektbezeichnungen zu Attributbezeichnungen, die zum Anhängen von Metadaten verwendet werden (z. B. „Auto“ -> „[Kennzeichen]“)."
},
"input_tensor":{
"label":"Form des Eingabetensors des Modells",
"description":"Vom Modell erwartetes Tensorformat: „nhwc” oder „nchw”."
},
"input_pixel_format":{
"label":"Modell-Eingabe-Pixel-Farbformat",
"description":"Vom Modell erwarteter Pixel-Farbraum: „rgb“, „bgr“ oder „yuv“."
},
"input_dtype":{
"label":"Modell-Eingabe D Typ",
"description":"Datentyp des Modelleingabetensors (z. B. „float32“)."
},
"model_type":{
"label":"Objekterkennungsmodelltyp",
"description":"Detektormodellarchitekturtyp (ssd, yolox, yolonas), der von einigen Detektoren zur Optimierung verwendet wird."
}
},
"model_path":{
"label":"Detektorspezifischer Modellpfad",
"description":"Dateipfad zum Binärcode des Detektormodells, falls vom ausgewählten Detektor benötigt."
},
"num_threads":{
"label":"Anzahl der Erkennungs-Threads",
"description":"Die Anzahl der Threads, die für die CPU-basierte Inferenz verwendet werden."
}
},
"deepstack":{
"label":"DeepStack",
"description":"DeepStack/CodeProject.AI-Detektor, der Bilder zur Inferenz an eine entfernte DeepStack-HTTP-API sendet. Nicht empfohlen.",
"label":"Pfad zum benutzerdefinierten Objekterkennungsmodell",
"description":"Pfad zu einer benutzerdefinierten Erkennungsmodelldatei (oder plus://<model_id> für Frigate+-Modelle)."
},
"labelmap_path":{
"label":"Label-Karte für benutzerdefinierten Objektdetektor",
"description":"Pfad zu einer Labelmap-Datei, die numerische Klassen dem Detektor als Zeichenfolgenbezeichnungen zuordnet."
},
"width":{
"label":"Eingabebreite des Objekterkennungsmodells",
"description":"Breite des Modell-Eingabetensors in Pixeln."
},
"height":{
"label":"Eingabehöhe für das Objekt-Erkennungsmodell",
"description":"Höhe des Modell-Eingabetensors in Pixeln."
},
"labelmap":{
"label":"Anpassung der Labelmap",
"description":"Überschreibt oder ordnet Einträge neu zu, um sie in die Standard-Labelmap zu integrieren."
},
"attributes_map":{
"label":"Zuordnung der Objektbezeichnungen zu ihren Attributbezeichnungen",
"description":"Zuordnung von Objektbezeichnungen zu Attributbezeichnungen, die zum Hinzufügen von Metadaten verwendet werden (zum Beispiel „Auto“ -> [„Kennzeichen“])."
},
"input_tensor":{
"label":"Form des Modell-Eingabetensors",
"description":"Vom Modell erwartetes Tensor-Format: „nhwc“ oder „nchw“."
},
"input_pixel_format":{
"label":"Standard-Pixel-Farbformat",
"description":"Vom Modell erwarteter Pixel-Farbraum: „rgb“, „bgr“ oder „yuv“."
},
"input_dtype":{
"label":"Modell-Eingangs-D-Typ",
"description":"Datentyp des Modell-Eingabetensors (z. B. „float32“)."
},
"model_type":{
"label":"Typ des Objekterkennungsmodells",
"description":"Typ der Detektor-Modellarchitektur (ssd, yolox, yolonas), der von einigen Detektoren zur Optimierung verwendet wird."
}
},
"model_path":{
"label":"Detektorspezifischer Modellpfad",
"description":"Dateipfad zur Binärdatei des Detektormodells, falls dies für den ausgewählten Detektor erforderlich ist."
"description":"Detektorspezifische Optionen zur Modellkonfiguration (Pfad, Eingabegröße usw.).",
"path":{
"label":"Pfad zum benutzerdefinierten Objekt-Erkennungsmodell",
"description":"Pfad zu einer benutzerdefinierten Erkennungsmodelldatei (oder plus://<model_id> für Frigate+-Modelle)."
},
"labelmap_path":{
"label":"Label-Karte für benutzerdefinierten Objektdetektor",
"description":"Pfad zu einer Labelmap-Datei, die numerische Klassen dem Detektor als Zeichenfolgenbezeichnungen zuordnet."
},
"width":{
"label":"Eingabebreite des Objekterkennungsmodells",
"description":"Breite des Modell-Eingabetensors in Pixeln."
},
"height":{
"label":"Eingabehöhe des Objekterkennungsmodells",
"description":"Höhe des Modell-Eingabetensors in Pixeln."
},
"labelmap":{
"label":"Anpassung der Labelmap",
"description":"Überschreibt oder ordnet Einträge neu zu, um sie in die Standard-Labelmap zu integrieren."
},
"attributes_map":{
"label":"Zuordnung der Objektbezeichnungen zu ihren Attributbezeichnungen",
"description":"Zuordnung von Objektbezeichnungen zu Attributbezeichnungen, die zum Hinzufügen von Metadaten verwendet werden (zum Beispiel „Auto“ -> [„Kennzeichen“])."
},
"input_tensor":{
"label":"Form des Modell-Eingabetensors",
"description":"Vom Modell erwartetes Tensor-Format: „nhwc“ oder „nchw“."
},
"input_pixel_format":{
"label":"Standard-Pixel-Farbformat",
"description":"Vom Modell erwarteter Pixel-Farbraum: „rgb“, „bgr“ oder „yuv“."
},
"input_dtype":{
"label":"Modell-Eingangs-D-Typ",
"description":"Datentyp des Modell-Eingabetensors (z. B. „float32“)."
},
"model_type":{
"label":"Typ des Objekterkennungsmodells",
"description":"Typ der Detektor-Modellarchitektur (ssd, yolox, yolonas), der von einigen Detektoren zur Optimierung verwendet wird."
}
},
"model_path":{
"label":"Detektorspezifischer Modellpfad",
"description":"Dateipfad zur Binärdatei des Detektormodells, falls dies für den ausgewählten Detektor erforderlich ist."
},
"location":{
"label":"Ort der Schlussfolgerung",
"description":"Standort der DeGirim-Inferenzmaschine (z. B. „@cloud“, „127.0.0.1“)."
},
"zoo":{
"label":"Modellzoo",
"description":"Pfad oder URL zum DeGirum-Modellzoo."
},
"token":{
"label":"DeGirum Cloud Token",
"description":"Zugangs-Token für DeGirum Cloud."
}
},
"edgetpu":{
"label":"EdgeTPU",
"description":"EdgeTPU-Detektor, der TensorFlow Lite-Modelle ausführt, die mithilfe des EdgeTPU-Delegates für Coral EdgeTPU kompiliert wurden.",
"description":"Detektorspezifische Optionen zur Modellkonfiguration (Pfad, Eingabegröße usw.).",
"path":{
"label":"Pfad zum benutzerdefinierten Objekt-Erkennungsmodell",
"description":"Pfad zu einer benutzerdefinierten Erkennungsmodelldatei (oder plus://<model_id> für Frigate+-Modelle)."
},
"labelmap_path":{
"label":"Label-Karte für benutzerdefinierten Objektdetektor",
"description":"Pfad zu einer Labelmap-Datei, die numerische Klassen dem Detektor als Zeichenfolgenbezeichnungen zuordnet."
},
"width":{
"label":"Eingabebreite des Objekterkennungsmodells",
"description":"Breite des Modell-Eingabetensors in Pixeln."
},
"height":{
"label":"Eingabehöhe für das Objekt-Erkennungsmodell",
"description":"Höhe des Modell-Eingabetensors in Pixeln."
},
"labelmap":{
"label":"Anpassung der Labelmap",
"description":"Überschreibt oder ordnet Einträge neu zu, um sie in die Standard-Labelmap zu integrieren."
},
"attributes_map":{
"label":"Zuordnung der Objektbezeichnungen zu ihren Attributbezeichnungen",
"description":"Zuordnung von Objektbezeichnungen zu Attributbezeichnungen, die zum Hinzufügen von Metadaten verwendet werden (zum Beispiel „Auto“ -> [„Kennzeichen“])."
},
"input_tensor":{
"label":"Form des Modell-Eingabetensors",
"description":"Vom Modell erwartetes Tensor-Format: „nhwc“ oder „nchw“."
},
"input_pixel_format":{
"label":"Standard-Pixel-Farbformat",
"description":"Vom Modell erwarteter Pixel-Farbraum: „rgb“, „bgr“ oder „yuv“."
},
"input_dtype":{
"label":"Modell-Eingabe Typ D",
"description":"Datentyp des Modell-Eingabetensors (z. B. „float32“)."
},
"model_type":{
"label":"Typ des Objekterkennungsmodells",
"description":"Typ der Detektor-Modellarchitektur (ssd, yolox, yolonas), der von einigen Detektoren zur Optimierung verwendet wird."
}
},
"model_path":{
"label":"Detektorspezifischer Modellpfad",
"description":"Dateipfad zur Binärdatei des Detektormodells, falls dies für den ausgewählten Detektor erforderlich ist."
},
"device":{
"label":"Gerätetyp",
"description":"Das für die EdgeTPU-Inferenz zu verwendende Gerät (z. B. „usb“, „pci“)."
}
},
"hailo8l":{
"label":"Hailo-8/Hailo-8L",
"description":"Hailo-8/Hailo-8L-Detektor unter Verwendung von HEF-Modellen und dem HailoRT SDK für die Inferenz auf Hailo-Hardware.",
"description":"Detektorspezifische Optionen zur Modellkonfiguration (Pfad, Eingabegröße usw.).",
"path":{
"label":"Pfad zum benutzerdefinierten Objekterkennungsmodell",
"description":"Pfad zu einer benutzerdefinierten Erkennungsmodelldatei (oder plus://<model_id> für Frigate+-Modelle)."
},
"labelmap_path":{
"label":"Label-Karte für benutzerdefinierten Objektdetektor",
"description":"Pfad zu einer Labelmap-Datei, die numerische Klassen dem Detektor als Zeichenfolgenbezeichnungen zuordnet."
},
"width":{
"label":"Eingabebreite des Objekterkennungsmodells",
"description":"Breite des Modell-Eingabetensors in Pixeln."
},
"height":{
"label":"Eingabehöhe für das Objekt-Erkennungsmodell",
"description":"Höhe des Modell-Eingabetensors in Pixeln."
},
"labelmap":{
"label":"Anpassung der Labelmap",
"description":"Überschreibt oder ordnet Einträge neu zu, um sie in die Standard-Labelmap zu integrieren."
},
"attributes_map":{
"label":"Zuordnung der Objektbezeichnungen zu ihren Attributbezeichnungen",
"description":"Zuordnung von Objektbezeichnungen zu Attributbezeichnungen, die zum Hinzufügen von Metadaten verwendet werden (zum Beispiel „Auto“ -> [„Kennzeichen“])."
},
"input_tensor":{
"label":"Form des Modell-Eingabetensors",
"description":"Vom Modell erwartetes Tensor-Format: „nhwc“ oder „nchw“."
},
"input_pixel_format":{
"label":"Standard-Pixel-Farbformat",
"description":"Vom Modell erwarteter Pixel-Farbraum: „rgb“, „bgr“ oder „yuv“."
},
"input_dtype":{
"label":"Modell-Eingangs-D-Typ",
"description":"Datentyp des Modell-Eingabetensors (z. B. „float32“)."
},
"model_type":{
"label":"Typ des Objekterkennungsmodells",
"description":"Typ der Detektor-Modellarchitektur (ssd, yolox, yolonas), der von einigen Detektoren zur Optimierung verwendet wird."
}
},
"model_path":{
"label":"Detektorspezifischer Modellpfad",
"description":"Dateipfad zur Binärdatei des Detektormodells, falls dies für den ausgewählten Detektor erforderlich ist."
},
"device":{
"label":"Geräte Type",
"description":"Das für die Hailo-Verbindung zu verwendende Gerät (z. B. „PCIe“, „M.2“)."
"description":"Detektorspezifische Optionen zur Modellkonfiguration (Pfad, Eingabegröße usw.).",
"path":{
"label":"Pfad zum benutzerdefinierten Objekterkennungsmodell",
"description":"Pfad zu einer benutzerdefinierten Erkennungsmodelldatei (oder plus://<model_id> für Frigate+-Modelle)."
},
"labelmap_path":{
"label":"Label-Karte für benutzerdefinierten Objektdetektor",
"description":"Pfad zu einer Labelmap-Datei, die numerische Klassen dem Detektor als Zeichenfolgenbezeichnungen zuordnet."
},
"width":{
"label":"Eingabebreite des Objekterkennungsmodells",
"description":"Breite des Modell-Eingabetensors in Pixeln."
},
"height":{
"label":"Eingabehöhe für das Objekterkennungsmodell",
"description":"Höhe des Modell-Eingabetensors in Pixeln."
},
"labelmap":{
"label":"Anpassung der Labelmap",
"description":"Überschreibt oder ordnet Einträge neu zu, um sie in die Standard-Labelmap zu integrieren."
},
"attributes_map":{
"label":"Zuordnung der Objektbezeichnungen zu ihren Attributbezeichnungen",
"description":"Zuordnung von Objektbezeichnungen zu Attributbezeichnungen, die zum Hinzufügen von Metadaten verwendet werden (zum Beispiel „Auto“ -> [„Kennzeichen“])."
},
"input_tensor":{
"label":"Form des Modell-Eingabetensors",
"description":"Vom Modell erwartetes Tensor-Format: „nhwc“ oder „nchw“."
},
"input_pixel_format":{
"label":"Standard-Pixel-Farbformat",
"description":"Vom Modell erwarteter Pixel-Farbraum: „rgb“, „bgr“ oder „yuv“."
"description":"Detektorspezifische Optionen zur Modellkonfiguration (Pfad, Eingabegröße usw.). Detektorspezifische Modellkonfiguration.",
"path":{
"label":"Pfad zum benutzerdefinierten Objekterkennungsmodell",
"description":"Pfad zu einer benutzerdefinierten Erkennungsmodelldatei (oder plus://<model_id> für Frigate+-Modelle)."
},
"labelmap_path":{
"label":"Label-Karte für benutzerdefinierten Objektdetektor",
"description":"Pfad zu einer Labelmap-Datei, die numerische Klassen dem Detektor als Zeichenfolgenbezeichnungen zuordnet."
},
"width":{
"label":"Eingabebreite des Objekterkennungsmodells",
"description":"Breite des Modell-Eingabetensors in Pixeln."
},
"height":{
"label":"Eingabehöhe für das Objekterkennungsmodell",
"description":"Höhe des Modell-Eingabetensors in Pixeln."
},
"labelmap":{
"label":"Anpassung der Labelmap",
"description":"Überschreibt oder ordnet Einträge neu zu, um sie in die Standard-Labelmap zu integrieren."
},
"attributes_map":{
"label":"Zuordnung der Objektbezeichnungen zu ihren Attributbezeichnungen",
"description":"Zuordnung von Objektbezeichnungen zu Attributbezeichnungen, die zum Hinzufügen von Metadaten verwendet werden (zum Beispiel „Auto“ -> [„Kennzeichen“])."
},
"input_tensor":{
"label":"Form des Modell-Eingabetensors",
"description":"Vom Modell erwartetes Tensor-Format: „nhwc“ oder „nchw“."
},
"input_pixel_format":{
"label":"Standard-Pixel-Farbformat",
"description":"Vom Modell erwarteter Pixel-Farbraum: „rgb“, „bgr“ oder „yuv“."
},
"input_dtype":{
"label":"Modell-Eingangs-D-Typ",
"description":"Datentyp des Modell-Eingabetensors (z. B. „float32“)."
},
"model_type":{
"label":"Typ des Objekterkennungsmodells",
"description":"Typ der Detektor-Modellarchitektur (ssd, yolox, yolonas), der von einigen Detektoren zur Optimierung verwendet wird."
}
},
"model_path":{
"label":"Detektorspezifischer Modellpfad",
"description":"Dateipfad zur Binärdatei des Detektormodells, falls dies für den ausgewählten Detektor erforderlich ist."
},
"axengine":{
"label":"AXEngine NPU",
"description":"AXERA AX650N/AX8850N NPU-Detektor, der kompilierte .axmodel-Dateien über die AXEngine-Laufzeitumgebung ausführt."
},
"onnx":{
"label":"ONNX",
"description":"ONNX-Detektor zum Ausführen von ONNX-Modellen; nutzt verfügbare Beschleunigungs-Backends (CUDA/ROCm/OpenVINO), sofern vorhanden.",
"device":{
"label":"Gerätetyp",
"description":"Das für die ONNX-Inferenz zu verwendende Gerät (z. B. „AUTO“, „CPU“, „GPU“)."
}
},
"openvino":{
"label":"OpenVINO",
"description":"OpenVINO-Detektor für AMD- und Intel-CPUs, Intel-GPUs und Intel-VPU-Hardware.",
"device":{
"label":"Geräte Type",
"description":"Das für die OpenVINO-Inferenz zu verwendende Gerät (z. B. „CPU“, „GPU“, „NPU“)."
}
},
"synaptics":{
"label":"Synaptics",
"description":"Synaptics-NPU-Detektor für Modelle im .synap-Format unter Verwendung des Synap SDK auf Synaptics-Hardware."
},
"teflon_tfl":{
"label":"Teflon",
"description":"Teflon-Delegate-Detektor für TFLite unter Verwendung der Mesa-Teflon-Delegate-Bibliothek zur Beschleunigung der Inferenz auf unterstützten GPUs."
},
"tensorrt":{
"label":"TensorRT",
"description":"TensorRT-Detektor für Nvidia Jetson-Geräte unter Verwendung serialisierter TensorRT-Engines zur Beschleunigung der Inferenz.",
"device":{
"label":"GPU-Geräteindex",
"description":"Der zu verwendende GPU-Geräteindex."
}
},
"zmq":{
"label":"ZMQ IPC",
"description":"ZMQ-IPC-Detektor, der die Inferenz über einen ZeroMQ-IPC-Endpunkt an einen externen Prozess auslagert.",
"endpoint":{
"label":"ZMQ IPC Endpunkt",
"description":"Der ZMQ-Endpunkt, mit dem eine Verbindung hergestellt werden soll."
},
"request_timeout_ms":{
"label":"ZMQ-Anfrage-Timeout in Millisekunden",
"description":"Zeitlimit für ZMQ-Anfragen in Millisekunden."
},
"linger_ms":{
"label":"Verweilzeit des ZMQ-Sockets in Millisekunden",
"description":"Verweilzeit des Sockets in Millisekunden."
"description":"Filter, die auf erkannte Objekte angewendet werden, um Fehlalarme zu reduzieren (Fläche, Verhältnis, Konfidenz).",
"min_area":{
"label":"Mindestobjektfläche",
"description":"Mindestfläche der Begrenzungsbox (Pixel oder Prozentangabe), die für diesen Objekttyp erforderlich ist. Kann in Pixel (int) oder Prozentangabe (Float zwischen 0,000001 und 0,99) angegeben werden."
},
"max_area":{
"label":"Maximale Objektfläche",
"description":"Maximal zulässige Begrenzungsrahmenfläche (Pixel oder Prozent) für diesen Objekttyp. Kann in Pixel (int) oder Prozent (Float zwischen 0,000001 und 0,99) angegeben werden."
},
"min_ratio":{
"label":"Mindestseitenverhältnis",
"description":"Mindestverhältnis von Breite zu Höhe, das für die Begrenzungsbox erforderlich ist, damit diese gültig ist."
},
"max_ratio":{
"label":"Maximales Seitenverhältnis",
"description":"Maximal zulässiges Verhältnis von Breite zu Höhe für die Begrenzungsbox, damit diese gültig ist."
},
"threshold":{
"label":"Konfidenzschwelle",
"description":"Durchschnittlicher Schwellenwert für die Erkennungssicherheit, der erforderlich ist, damit das Objekt als echt positiv eingestuft wird."
},
"min_score":{
"label":"Mindestvertrauen",
"description":"Mindestkonfidenz für die Einzelbilderkennung, die für die Zählung des Objekts erforderlich ist."
},
"mask":{
"label":"Filter Maske",
"description":"Polygonkoordinaten, die definieren, wo dieser Filter innerhalb des Rahmens angewendet wird."
},
"raw_mask":{
"label":"Rohmaske"
}
},
"mask":{
"label":"Objekt Maskierung",
"description":"Maskenpolygon, das verwendet wird, um die Objekterkennung in bestimmten Bereichen zu verhindern."
},
"genai":{
"label":"GenAI-Objektkonfiguration",
"description":"GenAI-Optionen zum Beschreiben verfolgter Objekte und zum Senden von Frames zur Generierung.",
"enabled":{
"label":"Aktivieren GenAI",
"description":"Die Erstellung von Beschreibungen für verfolgte Objekte durch GenAI standardmäßig aktivieren."
},
"use_snapshot":{
"label":"Verwenden Sie Momentaufnahmen",
"description":"Verwenden Sie für die Erstellung von Beschreibungen durch GenAI Objektsnapshots anstelle von Miniaturansichten."
},
"prompt":{
"label":"Aufforderung zur Bildunterschrift",
"description":"Standardvorlage für Eingabeaufforderungen, die bei der Erstellung von Beschreibungen mit GenAI verwendet wird."
},
"object_prompts":{
"label":"Objekt-Eingabeaufforderungen",
"description":"Objektbezogene Eingabeaufforderungen zur Anpassung der GenAI-Ausgaben an bestimmte Labels."
},
"objects":{
"label":"GenAI-Objekte",
"description":"Liste der Objektbezeichnungen, die standardmäßig an GenAI gesendet werden sollen."
},
"required_zones":{
"label":"Erforderliche Zonen",
"description":"Felder, die ausgefüllt werden müssen, damit Objekte für die Erstellung einer GenAI-Beschreibung in Frage kommen."
},
"debug_save_thumbnails":{
"label":"Miniaturansichten speichern",
"description":"Speichere die an GenAI gesendeten Miniaturansichten zur Fehlerbehebung und Überprüfung."
},
"send_triggers":{
"label":"GenAI-Auslöser",
"description":"Legt fest, wann Frames an GenAI gesendet werden sollen (am Ende, nach Aktualisierungen usw.).",
"tracked_object_end":{
"label":"weiterleiten",
"description":"Sende eine Anfrage an GenAI, sobald das verfolgte Objekt sein Ziel erreicht hat."
},
"after_significant_updates":{
"label":"Früher GenAI-Auslöser",
"description":"Sende eine Anfrage an GenAI, nachdem eine bestimmte Anzahl bedeutender Aktualisierungen für das verfolgte Objekt erfolgt ist."
}
},
"enabled_in_config":{
"label":"Ursprünglicher GenAI-Zustand",
"description":"Gibt an, ob GenAI in der ursprünglichen statischen Konfiguration aktiviert war."
"description":"Minuten zwischen den Bereinigungsdurchläufen, bei denen abgelaufene Aufzeichnungssegmente entfernt werden."
},
"continuous":{
"label":"Dauerhafte Aufbewahrung",
"description":"Anzahl der Tage, für die Aufzeichnungen unabhängig von verfolgten Objekten oder Bewegungen aufbewahrt werden sollen. Setzen Sie diesen Wert auf 0, wenn Sie nur Aufzeichnungen von Warnmeldungen und Erkennungen aufbewahren möchten.",
"days":{
"label":"Aufbewahrungsfristen",
"description":"Aufbewahrungsdauer der Aufzeichnungen."
}
},
"motion":{
"label":"Bewegungsnachlauf",
"description":"Anzahl der Tage, für die durch Bewegung ausgelöste Aufzeichnungen unabhängig von den verfolgten Objekten aufbewahrt werden sollen. Setzen Sie diesen Wert auf 0, wenn Sie nur Aufzeichnungen von Warnmeldungen und Erkennungen aufbewahren möchten.",
"days":{
"label":"Aufbewahrungsfristen",
"description":"Aufbewahrungsdauer der Aufzeichnungen."
}
},
"detections":{
"label":"Nachweis und Aufbewahrung",
"description":"Einstellungen zur Aufbewahrungsdauer von Aufzeichnungen für Erkennungsereignisse, einschließlich der Dauer vor und nach der Aufzeichnung.",
"pre_capture":{
"label":"Sekunden vor der Aufnahme",
"description":"Anzahl der Sekunden vor dem Erkennungsereignis, die in die Aufzeichnung aufgenommen werden sollen."
},
"post_capture":{
"label":"Sekunden nach der Aufnahme",
"description":"Anzahl der Sekunden nach dem Erkennungsereignis, die in die Aufzeichnung aufgenommen werden sollen."
},
"retain":{
"label":"Ereignisspeicherung",
"description":"Aufbewahrungsdauer für Aufzeichnungen von Erkennungsereignissen.",
"days":{
"label":"Aufbewahrungsfristen",
"description":"Anzahl der Tage, für die Aufzeichnungen von Erkennungsereignissen aufbewahrt werden sollen."
},
"mode":{
"label":"Speichermodus",
"description":"Speichermodus: „all“ (alle Segmente speichern), „motion“ (Segmente mit Bewegung speichern) oder „active_objects“ (Segmente mit aktiven Objekten speichern)."
}
}
},
"alerts":{
"label":"Aufbewahrungsfrist für Benachrichtigungen",
"description":"Einstellungen zur Aufbewahrungsdauer von Aufzeichnungen für Alarmereignisse, einschließlich der Dauer vor und nach dem Aufzeichnungsstart.",
"pre_capture":{
"label":"Sekunden vor der Aufnahme",
"description":"Anzahl der Sekunden vor dem Erkennungsereignis, die in die Aufzeichnung aufgenommen werden sollen."
},
"post_capture":{
"label":"Sekunden nach der Aufnahme",
"description":"Anzahl der Sekunden nach dem Erkennungsereignis, die in die Aufzeichnung aufgenommen werden sollen."
},
"retain":{
"label":"Ereignisspeicherung",
"description":"Aufbewahrungsdauer für Aufzeichnungen von Erkennungsereignissen.",
"days":{
"label":"Aufbewahrungsfrist",
"description":"Anzahl der Tage, für die Aufzeichnungen von Erkennungsereignissen aufbewahrt werden sollen."
},
"mode":{
"label":"Speichermodus",
"description":"Speichermodus: „all“ (alle Segmente speichern), „motion“ (Segmente mit Bewegung speichern) oder „active_objects“ (Segmente mit aktiven Objekten speichern)."
}
}
},
"export":{
"label":"Konfiguration exportieren",
"description":"Einstellungen, die beim Exportieren von Aufzeichnungen wie Zeitrafferaufnahmen und bei der Hardwarebeschleunigung verwendet werden.",
"hwaccel_args":{
"label":"hwaccel-Argumente exportieren",
"description":"Argumente für die Hardwarebeschleunigung bei Export- und Transkodierungsvorgängen."
}
},
"preview":{
"label":"Konfigurationsvorschau",
"description":"Einstellungen zur Steuerung der Qualität der in der Benutzeroberfläche angezeigten Aufnahmevorschauen.",
"quality":{
"label":"Vorschauqualität",
"description":"Qualitätsstufe der Vorschau (sehr_niedrig, niedrig, mittel, hoch, sehr_hoch)."
}
},
"enabled_in_config":{
"label":"Ursprünglicher Aufnahmestatus",
"description":"Gibt an, ob die Aufzeichnung in der ursprünglichen statischen Konfiguration aktiviert war."
"description":"Die Einstellungen für Aufzeichnung und Speicherung gelten für alle Kameras, sofern sie nicht für einzelne Kameras überschrieben werden."
"description":"Die Erzeugung von Warnmeldungen für alle Kameras aktivieren oder deaktivieren; diese Einstellung kann für jede Kamera individuell überschrieben werden."
"description":"Einstellungen, die festlegen, bei welchen verfolgten Objekten Erkennungen (ohne Alarm) generiert werden und wie lange diese Erkennungen gespeichert bleiben.",
"description":"Liste der Objektbezeichnungen, die als Erkennungsereignisse gelten."
},
"required_zones":{
"label":"Erforderliche Zonen",
"description":"Zonen, die ein Objekt betreten muss, damit es als Erkennung gewertet wird; lassen Sie das Feld leer, wenn alle Zonen zulässig sein sollen."
},
"cutoff_time":{
"label":"Zeitpunkt der Erkennung",
"description":"Sekunden, die nach dem Ende einer Aktivität, die keine Erkennung auslöst, gewartet werden müssen, bevor die Erkennung unterbrochen wird."
},
"enabled_in_config":{
"label":"Ursprünglicher Erkennungsstatus",
"description":"Zeigt an, ob die Erkennung ursprünglich in der statischen Konfiguration aktiviert war."
}
},
"genai":{
"label":"GenAI-Konfiguration",
"description":"Steuert den Einsatz generativer KI zur Erstellung von Beschreibungen und Zusammenfassungen von Rezensionsobjekten.",
"enabled":{
"label":"GenAI-Beschreibungen aktivieren",
"description":"Aktivieren oder deaktivieren Sie von GenAI generierte Beschreibungen und Zusammenfassungen für Überprüfungselemente."
},
"alerts":{
"label":"GenAI für Benachrichtigungen aktivieren",
"description":"Verwenden Sie GenAI, um Beschreibungen für Alarmmeldungen zu erstellen."
},
"detections":{
"label":"GenAI für die Erkennung aktivieren",
"description":"Verwenden Sie GenAI, um Beschreibungen für Erkennungselemente zu erstellen."
},
"image_source":{
"label":"Quelle des Bildes",
"description":"Quelle der an GenAI gesendeten Bilder („Vorschau“ oder „Aufzeichnungen“); „Aufzeichnungen“ verwenden Bilder in höherer Qualität, verbrauchen jedoch mehr Token."
},
"additional_concerns":{
"label":"Weitere Bedenken",
"description":"Eine Liste weiterer Aspekte oder Hinweise, die GenAI bei der Auswertung der Aktivitäten dieser Kamera berücksichtigen sollte."
},
"debug_save_thumbnails":{
"label":"Miniaturansichten speichern",
"description":"Speichern Sie Miniaturansichten, die zur Fehlerbehebung und Überprüfung an den GenAI-Anbieter gesendet werden."
},
"enabled_in_config":{
"label":"Ursprünglicher GenAI-Zustand",
"description":"Zeigt an, ob die GenAI-Überprüfung ursprünglich in der statischen Konfiguration aktiviert war."
},
"preferred_language":{
"label":"Bevorzugte Sprache",
"description":"Bevorzugte Sprache, in der die generierten Antworten vom GenAI-Anbieter bereitgestellt werden sollen."
},
"activity_context_prompt":{
"label":"Aufforderung zum Aktivitätskontext",
"description":"Eine benutzerdefinierte Eingabeaufforderung, die beschreibt, was als verdächtiges Verhalten gilt und was nicht, um den Zusammenfassungen der generativen KI einen Kontext zu geben."
"description":"Einstellungen, die Benachrichtigungen, Erkennungen und GenAI-Zusammenfassungen steuern, die von der Benutzeroberfläche und dem Speicher verwendet werden."
"description":"Diese Kalibrierungswerte werden automatisch durch die Kamerakalibrierung generiert. Bitte nicht manuell ändern.",
"label":"Bewegungsgewichte"
},
"label":"Automatische Verfolgung",
"description":"Bewegliche Objekte automatisch verfolgen und sie mithilfe von PTZ-Kamerabewegungen im Bildausschnitt zentriert halten.",
"enabled":{
"label":"Automatische Verfolgung aktivieren",
"description":"Aktivieren oder deaktivieren Sie die automatische PTZ-Kamera-Verfolgung erkannter Objekte."
},
"calibrate_on_startup":{
"label":"Beim Start kalibrieren",
"description":"Messen Sie die Drehzahlen der PTZ-Motoren beim Start, um die Nachführgenauigkeit zu verbessern. Frigate aktualisiert die Konfiguration nach der Kalibrierung mit den Bewegungsgewichten."
},
"zooming":{
"label":"Zoom-Modus",
"description":"Zoomverhalten steuern: deaktiviert (nur Schwenken/Neigen), absolut (am besten kompatibel) oder relativ (gleichzeitiges Schwenken/Neigen/Zoomen)."
},
"zoom_factor":{
"label":"Zoomfaktor",
"description":"Steuert den Zoomfaktor bei verfolgten Objekten. Bei niedrigeren Werten bleibt mehr von der Szene im Bild; bei höheren Werten wird näher herangezoomt, wobei jedoch die Verfolgung verloren gehen kann. Werte zwischen 0,1 und 0,75."
},
"track":{
"label":"Verfolgte Objekte",
"description":"Liste der Objekttypen, die das automatische Tracking auslösen sollen."
},
"return_preset":{
"label":"Voreinstellung setzen",
"description":"Der in der Kamera-Firmware konfigurierte ONVIF-Voreinstellungsname, zu dem nach Beendigung der Verfolgung zurückgekehrt werden soll."
},
"timeout":{
"label":"Zeitüberschreitung bei der Rückgabe",
"description":"Warte nach dem Verlust der Verfolgung so viele Sekunden, bevor die Kamera in die voreingestellte Position zurückkehrt."
},
"enabled_in_config":{
"label":"Ursprünglicher Autotrack-Status",
"description":"Internes Feld zur Erfassung, ob die automatische Nachführung in der Konfiguration aktiviert wurde."
"description":"ONVIF-Verbindung und Einstellungen für die automatische PTZ-Verfolgung dieser Kamera.",
"host":{
"label":"ONVIF Host",
"description":"Host (und optional Schema) für den ONVIF-Dienst dieser Kamera."
},
"port":{
"label":"ONVIF Port",
"description":"Portnummer für den ONVIF-Dienst."
},
"user":{
"label":"ONVIF-Benutzername",
"description":"Benutzername für die ONVIF-Authentifizierung; bei einigen Geräten ist für ONVIF ein Admin-Benutzer erforderlich."
},
"password":{
"label":"ONVIF-Passwort",
"description":"Passwort für die ONVIF-Authentifizierung."
},
"tls_insecure":{
"label":"TLS-Überprüfung deaktivieren",
"description":"TLS-Überprüfung überspringen und Digest-Authentifizierung für ONVIF deaktivieren (unsicher; nur in sicheren Netzwerken verwenden)."
},
"ignore_time_mismatch":{
"label":"Zeitabweichung ignorieren",
"description":"Ignoriere Zeitunterschiede zwischen Kamera und Frigate-Server bei der ONVIF-Kommunikation."
},
"profile":{
"label":"ONVIF Profile",
"description":"Spezifisches ONVIF-Medienprofil für die PTZ-Steuerung, das anhand eines Tokens oder Namens ausgewählt wird. Ist kein Profil festgelegt, wird automatisch das erste Profil mit gültiger PTZ-Konfiguration ausgewählt."
"description":"Einstellungen für die semantische Suche, die Objekt-Embeddings erstellt und abfragt, um ähnliche Elemente zu finden.",
"enabled":{
"label":"Semantische Suche aktivieren",
"description":"Aktivieren oder deaktivieren Sie die semantische Suchfunktion."
},
"reindex":{
"label":"Beim Start neu indizieren",
"description":"Lösen Sie eine vollständige Neuindizierung der historisch erfassten Objekte in der Embedding-Datenbank aus."
},
"model":{
"label":"Semantisches Suchmodell oder Name des GenAI-Anbieters",
"description":"Das für die semantische Suche zu verwendende Einbettungsmodell (z. B. „jinav1“) oder der Name eines GenAI-Anbieters mit der Rolle „Einbettungen“."
},
"model_size":{
"label":"Modellgröße",
"description":"Wählen Sie die Modellgröße aus; „small“ läuft auf der CPU, während „large“ in der Regel eine GPU erfordert."
},
"device":{
"label":"Gerät",
"description":"Dies ist eine Übersteuerung, um ein bestimmtes Gerät anzusprechen. Weitere Informationen finden Sie unter https://onnxruntime.ai/docs/execution-providers/"
"description":"Das Speichern von Momentaufnahmen für alle Kameras aktivieren oder deaktivieren; diese Einstellung kann für jede Kamera individuell überschrieben werden."
"description":"Zeichne Begrenzungsrahmen für verfolgte Objekte auf Momentaufnahmen aus der API."
},
"crop":{
"label":"Ertragsübersicht",
"description":"Schnappschüsse aus der API auf die Begrenzungsrahmen der erkannten Objekte zuschneiden."
},
"required_zones":{
"label":"Erforderliche Zonen",
"description":"Bereiche, die ein Objekt betreten muss, damit ein Schnappschuss gespeichert wird."
},
"height":{
"label":"Höhe der Momentaufnahme",
"description":"Höhe (Pixel), auf die Schnappschüsse über die API skaliert werden sollen; leer lassen, um die Originalgröße beizubehalten."
},
"retain":{
"label":"Aufbewahrungsdauer von Snapshots",
"description":"Aufbewahrungseinstellungen für Snapshots, einschließlich Standarddauer in Tagen und objektspezifischer Überschreibungen.",
"default":{
"label":"Standard-Aufbewahrungsfrist",
"description":"Standardmäßige Anzahl von Tagen, für die Snapshots aufbewahrt werden."
},
"mode":{
"label":"Speichermodus",
"description":"Speichermodus: „all“ (alle Segmente speichern), „motion“ (Segmente mit Bewegung speichern) oder „active_objects“ (Segmente mit aktiven Objekten speichern)."
},
"objects":{
"label":"Objektaufbewahrung",
"description":"Objektbezogene Überschreibungen für die Aufbewahrungsdauer von Snapshots."
}
},
"quality":{
"label":"Qualität der Momentaufnahme",
"description":"Codierungsqualität für gespeicherte Momentaufnahmen (0–100)."
},
"description":"Einstellungen für API-generierte Momentaufnahmen von verfolgten Objekten für alle Kameras; können für jede Kamera individuell überschrieben werden."
},
"model":{
"label":"Erkennungsmodell",
"description":"Einstellungen zur Konfiguration eines benutzerdefinierten Objekterkennungsmodells und seiner Eingabeform.",
"path":{
"label":"Pfad zum benutzerdefinierten Objekterkennungsmodell",
"description":"Pfad zu einer benutzerdefinierten Erkennungsmodelldatei (oder plus://<model_id> für Frigate+-Modelle)."
},
"labelmap_path":{
"label":"Label-Karte für benutzerdefinierten Objektdetektor",
"description":"Pfad zu einer Labelmap-Datei, die numerische Klassen dem Detektor als Zeichenfolgenbezeichnungen zuordnet."
},
"width":{
"label":"Eingabebreite des Objekterkennungsmodells",
"description":"Breite des Modell-Eingabetensors in Pixeln."
},
"height":{
"label":"Eingabehöhe für das Objekterkennungsmodell",
"description":"Höhe des Modell-Eingabetensors in Pixeln."
},
"labelmap":{
"label":"Anpassung der Labelmap",
"description":"Überschreibt oder ordnet Einträge neu zu, um sie in die Standard-Labelmap zu integrieren."
},
"attributes_map":{
"label":"Zuordnung der Objektbezeichnungen zu ihren Attributbezeichnungen",
"description":"Zuordnung von Objektbezeichnungen zu Attributbezeichnungen, die zum Hinzufügen von Metadaten verwendet werden (zum Beispiel „Auto“ -> [„Kennzeichen“])."
},
"input_tensor":{
"label":"Form des Modell-Eingabetensors",
"description":"Vom Modell erwartetes Tensor-Format: „nhwc“ oder „nchw“."
},
"input_pixel_format":{
"label":"Standard-Pixel-Farbformat",
"description":"Vom Modell erwarteter Pixel-Farbraum: „rgb“, „bgr“ oder „yuv“."
},
"input_dtype":{
"label":"Modell-Eingangs-D-Typ",
"description":"Datentyp des Modell-Eingabetensors (z. B. „float32“)."
},
"model_type":{
"label":"Typ des Objekterkennungsmodells",
"description":"Typ der Detektor-Modellarchitektur (ssd, yolox, yolonas), der von einigen Detektoren zur Optimierung verwendet wird."
}
},
"genai":{
"label":"Konfiguration generativer KI",
"description":"Einstellungen für integrierte Anbieter generativer KI, die zur Erstellung von Objektbeschreibungen und Zusammenfassungen von Rezensionen verwendet werden.",
"api_key":{
"label":"API Schlüssel",
"description":"Von einigen Anbietern wird ein API-Schlüssel benötigt (kann auch über Umgebungsvariablen festgelegt werden)."
},
"base_url":{
"label":"Base URL",
"description":"Basis-URL für selbst gehostete oder kompatible Anbieter (z. B. eine Ollama-Instanz)."
},
"model":{
"label":"Model",
"description":"Das vom Anbieter bereitzustellende Modell zur Erstellung von Beschreibungen oder Zusammenfassungen."
},
"provider":{
"label":"Anbieter",
"description":"Der zu verwendende GenAI-Anbieter (z. B.: Ollama, Gemini, OpenAI)."
},
"roles":{
"label":"Rollen",
"description":"GenAI-Rollen (Tools, Vision, Einbettungen); ein Anbieter pro Rolle."
},
"provider_options":{
"label":"Anbieter Optionen",
"description":"Zusätzliche anbieterspezifische Optionen, die an den GenAI-Client übergeben werden sollen."
},
"runtime_options":{
"label":"Laufzeit Optinenen",
"description":"Laufzeitoptionen, die bei jedem Inferenzaufruf an den Anbieter übergeben werden."
}
},
"timestamp_style":{
"label":"Format für Zeitstempel",
"position":{
"label":"Position des Zeitstempels",
"description":"Position des Zeitstempels auf dem Bild (tl/tr/bl/br)."
},
"format":{
"label":"Zeitstempelformat",
"description":"Datums- und Uhrzeitformatzeichenfolge für Zeitstempel (Python-Datums- und Uhrzeitformatcodes)."
},
"color":{
"label":"Farbe des Zeitstempels",
"description":"RGB-Farbwerte für den Zeitstempeltext (alle Werte zwischen 0 und 255).",
"red":{
"label":"Rot",
"description":"Rotwert (0–255) für die Farbe des Zeitstempels."
},
"green":{
"label":"Grün",
"description":"Grünanteil (0–255) für die Farbe des Zeitstempels."
},
"blue":{
"label":"Blau",
"description":"Blauer Farbanteil (0–255) für die Farbe des Zeitstempels."
}
},
"thickness":{
"label":"Stärke der Zeitmarke",
"description":"Linienstärke des Zeitstempeltextes."
},
"effect":{
"label":"Zeitstempeleffekt",
"description":"Visuelle Darstellung des Zeitstempeltextes (keine, durchgehend, Schatten)."
},
"description":"Gestaltungsoptionen für Zeitstempel im Feed, die auf die Debug-Ansicht und Snapshots angewendet werden."
},
"profiles":{
"label":"Profile",
"description":"Benannte Profildefinitionen mit aussagekräftigen Namen. Kameraprofile müssen auf die hier definierten Namen verweisen.",
"friendly_name":{
"label":"Anzeigename",
"description":"Anzeigename für dieses Profil, der in der Benutzeroberfläche angezeigt wird."
}
},
"classification":{
"label":"Objektklassifizierung",
"description":"Einstellungen für Klassifizierungsmodelle, die zur Verfeinerung von Objektbezeichnungen oder zur Zustandsklassifizierung verwendet werden.",
"bird":{
"label":"Konfiguration der Vogelklassifizierung",
"description":"Einstellungen speziell für Modelle zur Klassifizierung von Vögeln.",
"enabled":{
"label":"Vogelklassifizierung",
"description":"Vogelklassifizierung aktivieren oder deaktivieren."
},
"threshold":{
"label":"Mindestpunktzahl",
"description":"Mindestpunktzahl, die erforderlich ist, um eine Vogelklassifizierung zu akzeptieren."
"description":"Konfiguration für benutzerdefinierte Klassifizierungsmodelle, die zur Objekt- oder Zustandserkennung verwendet werden.",
"enabled":{
"label":"Modell aktivieren",
"description":"Das benutzerdefinierte Klassifizierungsmodell aktivieren oder deaktivieren."
},
"name":{
"label":"Modellname",
"description":"Bezeichner für das zu verwendende benutzerdefinierte Klassifizierungsmodell."
},
"threshold":{
"label":"Punktschwelle",
"description":"Punktschwelle, die zur Änderung des Klassifizierungsstatus herangezogen wird."
},
"save_attempts":{
"label":"Speicherungen",
"description":"Wie viele Klassifizierungsversuche sollen für die Benutzeroberfläche „Letzte Klassifizierungen“ gespeichert werden?"
},
"object_config":{
"objects":{
"label":"Objekte klassifizieren",
"description":"Liste der Objekttypen, für die eine Objektklassifizierung durchgeführt werden soll."
},
"classification_type":{
"label":"Klassifizierungstyp",
"description":"Verwendeter Klassifizierungstyp: „sub_label“ (fügt „sub_label“ hinzu) oder andere unterstützte Typen."
}
},
"state_config":{
"cameras":{
"label":"Klassifizierungskameras",
"description":"Bildausschnitt und Einstellungen pro Kamera für die Klassifizierung des Laufzustands.",
"crop":{
"label":"Klassifizierungsfeld",
"description":"Zuschneidekoordinaten, die für die Klassifizierung mit dieser Kamera verwendet werden sollen."
}
},
"motion":{
"description":"Falls zutreffend, führe die Klassifizierung durch, sobald innerhalb des angegebenen Ausschnitts eine Bewegung erkannt wird.",
"label":"Bei Bewegung ausführen"
},
"interval":{
"label":"Klassifizierungsintervall",
"description":"Intervall (in Sekunden) zwischen den regelmäßigen Klassifizierungsläufen für die Zustandsklassifizierung."
}
}
}
},
"camera_groups":{
"label":"Kameragruppen",
"description":"Konfiguration für benannte Kameragruppen, die zur Organisation der Kameras in der Benutzeroberfläche verwendet werden.",
"cameras":{
"label":"Kameraübersicht",
"description":"Liste der in dieser Gruppe enthaltenen Kameramodelle."
},
"icon":{
"label":"Gruppensymbol",
"description":"Symbol, das in der Benutzeroberfläche die Kameragruppe darstellt."
},
"order":{
"label":"Sortierreihenfolge",
"description":"Numerische Reihenfolge, nach der die Kameragruppen in der Benutzeroberfläche sortiert werden; höhere Zahlen erscheinen später."
}
},
"active_profile":{
"label":"Aktives Profil",
"description":"Name des derzeit aktiven Profils. Nur zur Laufzeit gültig, wird nicht in YAML gespeichert."
},
"camera_mqtt":{
"label":"MQTT",
"description":"Einstellungen für die Veröffentlichung von Bildern über MQTT.",
"enabled":{
"label":"Bild senden",
"description":"Aktivieren Sie für diese Kamera die Veröffentlichung von Bild-Snapshots für Objekte an MQTT-Themen."
},
"timestamp":{
"label":"Zeitstempel hinzufügen",
"description":"Füge einen Zeitstempel auf Bilder ein, die über MQTT veröffentlicht werden."
},
"bounding_box":{
"label":"Begrenzungsrahmen hinzufügen",
"description":"Zeichne Begrenzungsrahmen auf Bilder, die über MQTT veröffentlicht werden."
},
"crop":{
"label":"Bild zuschneiden",
"description":"Bilder, die über MQTT veröffentlicht werden, werden auf die Begrenzungsrahmen der erkannten Objekte zugeschnitten."
},
"height":{
"label":"Bildhöhe",
"description":"Höhe (in Pixeln) zur Größenanpassung von über MQTT veröffentlichten Bildern."
},
"required_zones":{
"label":"Benötigte Zonen",
"description":"Zonen, die ein Objekt betreten muss, damit ein MQTT-Bild veröffentlicht wird."
},
"quality":{
"label":"JPEG Qualität",
"description":"JPEG Qualität für über MQTT veröffentlichte Bilder (0–100)."
}
},
"camera_ui":{
"label":"Kamera UI",
"description":"Die Reihenfolge und Sichtbarkeit dieser Kamera wird in der UI angezeigt. Die Reihenfolge wirkt sich auf das Standard-Dashboard aus. Für eine feinere Kontrolle verwenden Sie Kamera-Gruppen.",
"order":{
"label":"UI-Reihenfolge",
"description":"Numerische Reihenfolge, nach der die Kamera in der Benutzeroberfläche sortiert wird (Standard-Dashboard und Listen); höhere Zahlen erscheinen später."
},
"dashboard":{
"label":"In der Benutzeroberfläche anzeigen",
"description":"Schalte ein, ob diese Kamera überall in der Benutzeroberfläche von „Frigate“ sichtbar ist. Wenn du diese Option deaktivierst, musst du die Konfiguration manuell bearbeiten, um diese Kamera wieder in der Benutzeroberfläche anzuzeigen."