Operations
Documentation Map
-
Operations
-
Channel:
latest -
Source repo:
JaddaHelpifyr/jhf-beam
Operations
Zweck
Diese Datei beschreibt den aktuellen Betriebszustand und die Grenzen des Repositories.
Start
Kein Dienststart vorhanden. Das Repository wird ueber Git und CI betrieben.
Run
- Dokumentation pflegen
- issue-getriebte Aenderungen umsetzen
- Linux-CI fuer Mindestvalidierung nutzen
- abgeschlossene
jhf-beamruns als cold data nach TrueNAS offloaden - getrennte Docker-Hygiene nur reporting-first und konservativ betreiben
- repo-eigene Host-Artefakte ueber einen kanonischen Sync-Pfad planen, anwenden und verifizieren
- standalone nach
helpifyr-integratednur ueber den dokumentierten Adopt-First-Pfad fuer denselben run path ueberfuehren
Verify
- Pflichtdateien vorhanden
- Backlog und Issues konsistent
- Manifest und README spiegeln denselben Scope
compatibility/latest.jsonzeigt den letzten bekannten single-path Statusruns/offloaded/<run-id>.jsonzeigt archivierte Cold-Data-Ziele fuer offloaded Runsops/host/evidence/<measurement-id>/measurement.jsonbildet den konservativen Vorher-/Nachher-Snapshot fuer repo-eigene Host-Rollouts~/.local/state/jhf-beam/host-artifact-sync-state.jsonbeschreibt den zuletzt installierten repo-eigenen Host-Artefaktstand ueber eine artefaktbezogeneartifact_revisionmaintenance/*.jsonbilden Inventory, Promotion-Handoff, Live-Feedback und Governance-Baseline maschinenlesbar abops/host/verify-ssh-batchmode-contract.shvalidiert den env-owned non-interactive SSH-Contract (BatchMode=yes) fuer Linux-Shell-Checksops/host/verify-live-stack-attachment.shbelegt die Live-Anbindung dieses Repositories als host-bound Operator statt als Container-Runtimescripts/testing/run_beam_stack_oss_inventory_wave.sherzeugt den stack-weiten OSS-/Runtime-Bestand und den dazugehoerigen Upgrade-Wellenplanops/host/process-promotion-issue.shist der operative Bridge-Pfad fuer Stage 3 und erzeugt bzw. publiziert die strukturierte Rueckmeldung an das Promotion-Issueops/host/read-openclaw-runtime-readback.shliefert die contract-relevante OpenClaw-Runtime-Evidence fuer Reload-Mode-, Sandbox- und Delegationssignale- der Publish-Schritt bleibt secret-neutral im Repo:
GITEA_TOKENkommt entweder explizit aus der Shell oder als runtime-fallback aus dem bereits laufendenopenclaw-gateway, nie aus einer eingecheckten Datei maintenance/check-published-live-feedback.pybildet den repo-seitigen Post-Publish-Verify dafuer, dass genau der erwartete Live-Feedback-Payload in Gitea angekommen ist~/.local/state/jhf-beam/live-promotions/metrics/stage3-summary.jsonbildet den aktuellen repo-lokalen Stage-3-Metrik-Snapshot fuer denselben Promotion-Statetest-results/stack-oss-inventory.live.jsonundtest-results/stack-upgrade-plan.live.jsonsind die repo-seitigen Artefakte fuer den letzten echten Stack-Vollscan
Stop
Kein laufender Dienst vorhanden.
Recovery
- fehlerhafte Repo-Aenderungen per Git-Revert oder Folge-Commit korrigieren
- Runner- oder Infra-Probleme dokumentieren, nicht im selben Lauf umbauen
Logs
- aktuell relevant sind Git-Historie und CI-Logs in Gitea
- Host-Offload-Log:
~/.local/state/jhf-beam/offload.log - Host-Docker-Hygiene-Log:
~/.local/state/jhf-beam/docker-hygiene.log - Run-spezifische Logs:
upgrade/openclaw/2026.3.13-to-2026.3.24/runs/<run-id>/logs/ - integrierte
evidence.jsonenthaelt auchplan_resultund bei Plan-Fehlern eine kompakteplan_failure_summary
Monitoring
- aktuell nicht vorhanden
- minimaler Ersatz: CI-Status des Repositories
- stack-weite OSS-Upgrade-Drift wird repo-owned ueber Inventory + Wave-Plan sichtbar gemacht:
maintenance/pull_stack_oss_inventory.pymaintenance/generate_stack_upgrade_plan.pymaintenance/verify-stack-oss-inventory.py- Boundary fuer shared CI dispatch:
jhf-beamowned nur repo-lokale CI-Definition und Verify-Pfade injhf-beam
jhf-beamowned nicht die globale Gitea-Runner-Dispatch-Policy, Runner-Registration oder Repo-Onboarding anderer Repositories- Blocker mit
pending-Checks ohne materialisierten Actions-Task in fremden Repositories sind an den jeweiligen Repo-Owner plus env-/runner-owner zu routen (aktuellJaddaHelpifyr/jhf-loomundJaddaHelpifyr/jhf-openclaw-env)
- Host-Runtime-Messung fuer Rollouts bleibt kurz und reporting-first:
- CPU-Snapshot ueber
top -b -n1 - Docker-Ereignisrauschen ueber kurze
exec_create-Stichprobe - user-level
systemdStatus fueroffloadunddocker hygiene - lokaler Evidence-Pfad ueber
ops/host/measure-rollout-via-ssh.sh
- CPU-Snapshot ueber
- letzter verifizierter Host-Rollout-Snapshot am
2026-04-02:- CPU idle vor dem Rollout:
0.9% - CPU idle nach dem Rollout:
31.8% exec_createin15svor dem Rollout:24exec_createin15snach dem Rollout:25- Einordnung: host-weite Signale bleiben verrauscht, weil fremde Container auf demselben Host laufen
- CPU idle vor dem Rollout:
- Maintenance-Metriken werden vorerst als JSON-Baseline definiert:
- Maintenance-Metriken werden jetzt fuer Stage 3 als JSON-Baseline unter
~/.local/state/jhf-beam/live-promotions/metrics/stage3-summary.jsonverdichtet:success_rateaverage_stage_durationrollback_ratedrift_frequencyfailed_promotions_per_weekmanual_interventions_per_weekaverage_stage2_durationaverage_stage3_duration
Healthchecks
- keine repo-eigenen Docker-Healthchecks vorhanden
- aktuelle Runtime-Last entsteht nur ueber user-level
systemdjobs fueroffloadunddocker hygiene - Standard fuer kuenftige repo-eigene Healthchecks bleibt:
- kritische Kernservices: 20-30s
- normale Services: 30s
- unkritische Services: 60s
- kein Intervall unter 20s
- timeout 2-5s
- retries 3-5
- start_period 20-60s, nur wenn sinnvoll
- Services ohne echten Liveness-Bedarf bekommen keinen Healthcheck
Readiness
- nicht vorhanden
Typische Fehlerbilder
- Pflichtdokumente fehlen oder sind inkonsistent
- Issue-Status passt nicht zum Backlog
- Scope wird in der Doku ueberdehnt
- Offload-Target ist nicht schreibbar und ein Run bleibt als
local-retainedlokal - host-affecting Skripte verweigern unsichere Roots oder Schwellwerte
- Host-Artefakt-Sync verweigert Ziele ausserhalb von
~/.local/binund~/.config/systemd/user source-side capturekann nur den lokalen Terraform-Testzustand bewerten, wennJHF_DEPLOYMENT_DIRlokal verfuegbar und perterraform output -jsonlesbar ist- host-lokale Ausfuehrung normalisiert
<internal-runtime-redacted><internal-runtime-redacted>auf lokale Runtime-Inspektion statt SSH-zu-sich-selbst
Restart- und Recovery-Hinweise
- keine Laufzeitprozesse
- fuer kuenftige Skripte muessen eigene Recovery-Hinweise pro Artefakt dokumentiert werden
- user-level
jhf-beam-offload.timerzieht nur abgeschlossene lokale Runs nach - user-level
jhf-beam-docker-hygiene.timerist getrennt und fasst standardmaessig keine Images oder Volumes aktiv an - repo-eigener Host-Artefakt-Sync legt Sicherungen unter
~/.local/state/jhf-beam/sync-backups/<timestamp>/ab - beide Host-Jobs laufen mit reduzierter Prioritaet und sind fuer schwaechere Hosts auf geringe Dauerlast ausgelegt
- Rollout-Messung bleibt read-only und darf keine Host-Konfiguration veraendern
Gate-, Timeout- und Locking-Basis
Statusfluss:
draftverified-stage1verified-stage2promotedlive-verifiedclosed
Blockierend:
blockeddriftedmissing-release-evidence
Timeouts:
- Stage 1:
15Minuten - Stage 2:
45Minuten - Stage 3:
30Minuten
Retry- und Cooldown-Basis:
- nach Failure kein erneuter Apply desselben Artefakts auf dasselbe Ziel innerhalb von
30Minuten ohne explizite Retry-Entscheidung - dieselbe Kombination aus
artifact_digest + target_environmentdarf nurresumeoderskipsein
Locking:
- genau ein aktiver Promotion-Flow pro Repo
- das aktive Promotion-Issue in
jhf-deploymentist zugleich der operative Lock - stale Locks duerfen nur durch
jhf-deploymentOwner oder benannte Operatoren geloest werden
Laufzeitabhaengigkeiten
- Gitea
- Linux-basierte Runner
/mnt/truenas-container/jhf-beam/runsfuer cold data offload- user-level Host-systemd fuer Fallback-Offload und Docker-Hygiene-Timer
- SSH und SCP fuer den repo-eigenen Host-Artefakt-Sync
- denselben OpenClaw run path fuer standalone und
helpifyr-integrated, ohne Hidden Migration Layer
Betriebliche Grenzen
- kein Runtime-Service
- keine Observability-Endpunkte
- keine Rollout-Steuerung
- aktive Runs bleiben lokal
- Docker runtime bleibt lokal
- Terraform working dirs bleiben lokal
- automatische Docker-Loeschungen sind standardmaessig deaktiviert
- nur die dokumentierte single-path Compatibility-Export-Surface ist stabil lesbar
- keine repo-eigenen Container-Healthchecks, solange dieses Repository keine eigenen Compose-Stacks betreibt
- Rollout-Messung ist host-weit nur indikativ;
exec_create-Rauschen kann fremde Stacks enthalten - Host-Artefakt-Sync fasst nur den dokumentierten Satz aus
ops/host/host-artifacts.manifest.tsvan - Adopt-First fuer diesen Pfad bedeutet Re-Execution gegen das integrierte Substrate, nicht Volume-, DB- oder Secret-Migration
jhf-beambleibt Live-Host-Operator, aber nicht eigenstaendige Control Plane oder Promotion-Queue- Drift-Nachweis fuer OpenClaw-nahe Flows braucht expected vs actual plus
gateway.reload.mode - das Fehlen eines
jhf-beamContainers auf<internal-runtime-redacted>ist kein Incident; relevant sind Host-Checkout, Verify-Skripte und die repo-eigenen user-level Timer
Lizenz
AGPLv3. Siehe ../LICENSE (LICENSE).
Mehr unter helpifyr.com.