Skip to content

CoopScenes/LabelingPolicy

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

8 Commits
 
 
 
 
 
 

Repository files navigation

Labeling Policy

Dieses Dokument beschreibt die verbindlichen Regeln und Best Practices für das Labeling von LiDAR- und Kameradaten. Ziel ist eine konsistente, qualitativ hochwertige Annotation über alle Szenen hinweg.


Allgemeine Labeling-Regeln

  • Keine Bodenpunkte im Objekt
    Objekte dürfen keine Bodenpunkte enthalten. Der Boden soll unter Objekten (z.B. Straße unter Fahrzeugen) konsistent durchlaufen.

  • Tight Bounding Boxes
    Boxen sollten angemessen um die Punktwolke gezogen werden, ohne relevante Objektpunkte auszuschließen. Besondere Aufmerksamkeit auf die Separierung zum Boden.

  • Nur reale Punkte einschließen
    Objekte dürfen ausschließlich tatsächlich vorhandene LiDAR-Punkte einschließen.
    Ausnahme: Statische Objekte (z.B. Gebäude, Masten), bei denen eine leichte Generalisierung zulässig ist.

  • LiDAR vor Kamera
    Entscheidungen werden primär auf Basis der LiDAR-Daten getroffen. Kamerabilder sind nur zur Orientierung da.

  • Keine Pseudo-Boxen
    Bounding Boxes dürfen nur auf der Punktwolke basieren. Keine Ergänzungen oder Größenabschätzungen aus dem Kamerabild.

  • Verschattung
    Verschattungen oder Teilverdeckungen erzeugen keine zusätzlichen Objekte. Es bleibt eine Instanz.

  • Klassenschema
    Klassen werden strikt nach dem 8+1-Klassenschema vergeben. Wenn ein Fahrzeug nie in der Kamera zu sehen ist und nicht eindeutig zugeorndet werden kann, wird es als Unknown klassifiziert.

  • Minimale Punktanzahl
    Ein Objekt muss mindestens aus einem LiDAR-Punkt bestehen, um gelabelt zu werden.


Frame Selection

  • Keine leeren Szenen
    Es werden nur Frames mit dynamischen Objekten gelabelt.

  • Ganze Manöver
    Es wird immer ein vollständiges manöver gelabelt. Der Start und Endpunkt wird gesetzt bei ausreichend Agent Overlap.

  • Agent Overlap
    Wenn der jeweils andere Agent direkt im Kamerabild zu sehen ist oder in der Punktwolke auftaucht. Reine Punktwolkenüberlappung ist nicht ausreichend.


Workflow

1. Statische Objekte

  • Zuerst statische Objekte identifizieren (z. B. parkende Autos).
  • Frames auswählen, in denen sich das Ego-Fahrzeug nahe an diesen statischen Objekten befindet, um eine präzise Annotation zu ermöglichen.
  • Anschließend die Kopierfunktion nutzen, um die Annotationen über die komplette Szene zu übertragen (Alt + ← / →).
  • Danach verbleiben hauptsächlich dynamische Objekte.

2. Dynamische Objekte labeln

  • Dynamische Objekte mit der Tracking-Funktion annotieren:
    • Objekt in einem Frame Labeln in dem es gut erkennbar ist. Objekt ausgewählt lassen.
    • Mit ← / → Frame wechseln, Objekt wiederfinden und dann mit dem AI Tool eine neue Box ziehen. Dadurch erhält das Objekt die gleiche ObjektID (unten ersichtlich).
  • Alle dynamischen Objekte strukturiert und vollständig durch die Szene tracken.

Best Practices

  • Tower Priorisieren!
  • Color Encoding nutzen, um Bodenpunkte leichter zu identifizieren und zu separieren.
  • Nach der Frame-Annotation alle Bilder prüfen, um sicherzustellen, dass keine Instanzen fehlen.
  • Nach Kamera-Checks Straßen und Gehwege kontrollieren:
    • Objekte aus vergangenen oder folgenden Frames sinnvoll tracken.
  • Shortcuts konsequent nutzen, um effizient zu arbeiten.
  • Regelmäßig speichern, um Datenverlust zu vermeiden.

Ziel

Konsistente, reproduzierbare und qualitativ hochwertige Labels über alle Szenen hinweg, mit Fokus auf LiDAR-basierter Genauigkeit und sauberem Tracking.

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors