Dieses Dokument beschreibt die verbindlichen Regeln und Best Practices für das Labeling von LiDAR- und Kameradaten. Ziel ist eine konsistente, qualitativ hochwertige Annotation über alle Szenen hinweg.
-
Keine Bodenpunkte im Objekt
Objekte dürfen keine Bodenpunkte enthalten. Der Boden soll unter Objekten (z.B. Straße unter Fahrzeugen) konsistent durchlaufen. -
Tight Bounding Boxes
Boxen sollten angemessen um die Punktwolke gezogen werden, ohne relevante Objektpunkte auszuschließen. Besondere Aufmerksamkeit auf die Separierung zum Boden. -
Nur reale Punkte einschließen
Objekte dürfen ausschließlich tatsächlich vorhandene LiDAR-Punkte einschließen.
Ausnahme: Statische Objekte (z.B. Gebäude, Masten), bei denen eine leichte Generalisierung zulässig ist. -
LiDAR vor Kamera
Entscheidungen werden primär auf Basis der LiDAR-Daten getroffen. Kamerabilder sind nur zur Orientierung da. -
Keine Pseudo-Boxen
Bounding Boxes dürfen nur auf der Punktwolke basieren. Keine Ergänzungen oder Größenabschätzungen aus dem Kamerabild. -
Verschattung
Verschattungen oder Teilverdeckungen erzeugen keine zusätzlichen Objekte. Es bleibt eine Instanz. -
Klassenschema
Klassen werden strikt nach dem 8+1-Klassenschema vergeben. Wenn ein Fahrzeug nie in der Kamera zu sehen ist und nicht eindeutig zugeorndet werden kann, wird es als Unknown klassifiziert. -
Minimale Punktanzahl
Ein Objekt muss mindestens aus einem LiDAR-Punkt bestehen, um gelabelt zu werden.
-
Keine leeren Szenen
Es werden nur Frames mit dynamischen Objekten gelabelt. -
Ganze Manöver
Es wird immer ein vollständiges manöver gelabelt. Der Start und Endpunkt wird gesetzt bei ausreichend Agent Overlap. -
Agent Overlap
Wenn der jeweils andere Agent direkt im Kamerabild zu sehen ist oder in der Punktwolke auftaucht. Reine Punktwolkenüberlappung ist nicht ausreichend.
- Zuerst statische Objekte identifizieren (z. B. parkende Autos).
- Frames auswählen, in denen sich das Ego-Fahrzeug nahe an diesen statischen Objekten befindet, um eine präzise Annotation zu ermöglichen.
- Anschließend die Kopierfunktion nutzen, um die Annotationen über die komplette Szene zu übertragen (
Alt + ← / →). - Danach verbleiben hauptsächlich dynamische Objekte.
- Dynamische Objekte mit der Tracking-Funktion annotieren:
- Objekt in einem Frame Labeln in dem es gut erkennbar ist. Objekt ausgewählt lassen.
- Mit ← / → Frame wechseln, Objekt wiederfinden und dann mit dem AI Tool eine neue Box ziehen. Dadurch erhält das Objekt die gleiche ObjektID (unten ersichtlich).
- Alle dynamischen Objekte strukturiert und vollständig durch die Szene tracken.
- Tower Priorisieren!
- Color Encoding nutzen, um Bodenpunkte leichter zu identifizieren und zu separieren.
- Nach der Frame-Annotation alle Bilder prüfen, um sicherzustellen, dass keine Instanzen fehlen.
- Nach Kamera-Checks Straßen und Gehwege kontrollieren:
- Objekte aus vergangenen oder folgenden Frames sinnvoll tracken.
- Shortcuts konsequent nutzen, um effizient zu arbeiten.
- Regelmäßig speichern, um Datenverlust zu vermeiden.
Konsistente, reproduzierbare und qualitativ hochwertige Labels über alle Szenen hinweg, mit Fokus auf LiDAR-basierter Genauigkeit und sauberem Tracking.