3D - Scanning
Was ist 3D-Scanning? Eine Einführung in die Technologie.
3D-Scanning ist ein berührungsloses Verfahren, mit dem die Form und Oberfläche eines realen Objekts in digitale Daten überführt werden. Dabei entstehen Punktwolken; bis hin zu Millionen von Einzelkoordinaten die präzise die Konturen des Objekts abbilden. Aus diesen Rohdaten kann anschließend ein CAD‑Modell generiert werden, das alle geometrischen Merkmale detailgetreu wiedergibt.
Strukturiertes Infrarotlicht (Structured Light)
Projektion: Ein Infrarot‑Projektor wirft ein codiertes, meist gestreiftes oder gitternetzförmiges Muster auf das Objekt.
Erfassung: Mehrere IR‑Kameras (rechteckiges Stereo‑Setup) beobachten die Verzerrung des Musters.
Berechnung: Aus der Pixel‑Verschiebung des bekannten Referenzmusters errechnet die Software für jedes Bildpixel die exakte Tiefe.
Vorteile:
Sehr hohe Auflösung (bis zu 0,01 mm), ideal für filigrane Details
Kurze Aufnahmezeiten (ein Scan in <1 Sekunde möglich)
Funktioniert auch bei einfarbigen oder glänzenden Oberflächen
Nachteile:
Empfindlich gegenüber direktem Sonnenlicht (starke IR‑Interferenz)
Begrenzte Reichweite (typisch 0,2 m bis 5 m)
Laser-Triangulation
Prinzip: Ein Laserstrahl (Punkt oder Linie) wird auf das Objekt gerichtet; eine Kamera misst den Abstand anhand des Ablenkwinkels des Laserlichts.
Vorgehen:
Laser projiziert Linie oder Punkt.
Kamera erfasst die reflektierte Linie aus einem definierten Winkel.
Triangulationsrechnung liefert die Distanz zum Objekt.
Vorteile:
Sehr präzise (<0,01 mm) und wiederholgenau
Unempfindlich gegenüber Umgebungslicht, da Laser hoher Kontrast
Nachteile:
Punktweises Abtasten (Scandauer kann mehrere Minuten betragen)
Reflexionsempfindlich bei durchsichtigem oder spiegelndem Material
Time-of-Flight (ToF)
Prinzip: Messung der Laufzeit von Lichtimpulsen (meist Laser oder LED) zwischen Projektor und Objekt.
Vorgehen:
IR‑Impuls wird ausgesendet.
Sensor misst die Rückkehrzeit des reflektierten Lichts.
Einfache Distanzberechnung: D=c⋅t2D = \tfrac{c \cdot t}{2}D=2c⋅t (c = Lichtgeschwindigkeit).
Vorteile:
Große Reichweite (bis zu 100 m)
Schnelle Erfassung ganzer Szenen in Echtzeit (30 fps oder mehr)
Nachteile:
Geringere Genauigkeit (~1–5 mm)
Streulicht und Mehrfachreflexionen können zu Artefakten führen
Photogrammetrie
Prinzip: Rekonstruktion eines 3D‑Modells aus einer Serie von 2D‑Fotos mit hoher Überlappung.
Vorgehen:
Objekt aus unterschiedlichen Blickwinkeln fotografieren (mind. 60–100 Bilder).
Software sucht in allen Bildern gemeinsame Merkmale (Feature‑Matching).
Structure‑from‑Motion (SfM) berechnet Kamera‑Positionen und erzeugt eine dichte Punktwolke.
Vorteile:
Sehr kostengünstig (einfach Kamera oder sogar Smartphone)
Große Flächen und komplexe Szenen (Landschaften, Architektur) möglich
Nachteile:
Abhängig von Textur und Beleuchtung – bei homogenen Flächen schwierig
Aufwändiger Datenabgleich und lange Rechenzeiten
Vergleich & Einsatzgebiete
Verfahren | Genauigkeit | Scanzeit | Reichweite | Typische Anwendung |
---|---|---|---|---|
Strukturiertes Licht | 0,01–0,1 mm | < 1 Sekunde | 0,2 – 5 m | Reverse Engineering, Kleinteile |
Laser‑Triangulation | 0,01 mm | Minuten | 0,1 – 2 m | Präzisionsinspektion |
Time‑of‑Flight | 1 – 5 mm | Echtzeit (30 fps) | 1 – 100 m | Robotik, autonome Fahrzeuge |
Photogrammetrie | 0,1 – 1 mm | Stunden (Erfassung & Verarbeitung) | Bis unbegrenzt | Denkmaldokumentation, Luftbild |
Detailliertes Vorgehen
Kalibrierung
Kamera- und Projektor-Module werden genau aufeinander abgestimmt.
Bekannte Referenzobjekte (z. B. ein Kalibrierungswürfel) sorgen dafür, dass später alle Messwerte aufeinander bezogen sind.
Projektion und Erfassung
Der Projektor wirft ein codiertes Infrarotmuster auf die Objektoberfläche.
Mehrere Infrarot-Kameras nehmen das verzerrte Muster aus verschiedenen Blickwinkeln auf.
Da Infrarotlicht unsichtbar für das menschliche Auge ist, stört es weder Mensch noch Material.
Punktwolken‑Berechnung
Die Software analysiert die Verschiebung jedes Musterelements pixelgenau.
Für jeden Messpunkt wird die 3D‑Koordinate berechnet und als Punktwolke abgespeichert.
Zusammenführung mehrerer Scans
Dreht man das Objekt oder bewegt den Scanner, entstehen Teil‑Punktwolken.
Algorithmen (Alignment) fügen diese zu einer einzigen, vollständigen Punktwolke zusammen.
Mesh‑Generierung
Aus der Punktwolke wird ein Dreiecksnetz (Mesh) erzeugt.
Löcher werden gefüllt und überflüssige Punkte reduziert, um ein glattes Oberflächenmodell zu erhalten.
CAD‑Modellableitung
Parametrische Flächen (NURBS, Flächenzüge) werden auf das Mesh gelegt.
Kanten und Bohrungen lassen sich als Volumenkörper ableiten (Feature‑Erkennung).
Maße, Toleranzen und fertigungsrelevante Eigenschaften werden ergänzt.
Vom Rohdatensatz zum fertigen CAD‑Modell
Nachbearbeitung: Glätten, Rauschentfernung, Schlussprüfung der Geometrie
Feature‑Erkennung: Auto‑Identifikation von Zylindern, Ebenen und Bohrungen
Export: In gängige CAD‑Formate (IGES, STEP, Parasolid) für Konstruktion oder Fertigung
3D-Scanning ist ein berührungsloses Verfahren, mit dem die Form und Oberfläche eines realen Objekts in digitale Daten überführt werden. Dabei entstehen Punktwolken; bis hin zu Millionen von Einzelkoordinaten die präzise die Konturen des Objekts abbilden. Aus diesen Rohdaten kann anschließend ein CAD‑Modell generiert werden, das alle geometrischen Merkmale detailgetreu wiedergibt.