3D - Scanning

Was ist 3D-Scanning? Eine Einführung in die Technologie.

3D-Scanning ist ein berührungsloses Verfahren, mit dem die Form und Oberfläche eines realen Objekts in digitale Daten überführt werden. Dabei entstehen Punktwolken; bis hin zu Millionen von Einzelkoordinaten die präzise die Konturen des Objekts abbilden. Aus diesen Rohdaten kann anschließend ein CAD‑Modell generiert werden, das alle geometrischen Merkmale detailgetreu wiedergibt.

Strukturiertes Infrarotlicht (Structured Light)

  • Projektion: Ein Infrarot‑Projektor wirft ein codiertes, meist gestreiftes oder gitternetzförmiges Muster auf das Objekt.

  • Erfassung: Mehrere IR‑Kameras (rechteckiges Stereo‑Setup) beobachten die Verzerrung des Musters.

  • Berechnung: Aus der Pixel‑Verschiebung des bekannten Referenzmusters errechnet die Software für jedes Bildpixel die exakte Tiefe.

  • Vorteile:

    • Sehr hohe Auflösung (bis zu 0,01 mm), ideal für filigrane Details

    • Kurze Aufnahmezeiten (ein Scan in <1 Sekunde möglich)

    • Funktioniert auch bei einfarbigen oder glänzenden Oberflächen

  • Nachteile:

    • Empfindlich gegenüber direktem Sonnenlicht (starke IR‑Interferenz)

    • Begrenzte Reichweite (typisch 0,2 m bis 5 m)

Laser-Triangulation

  • Prinzip: Ein Laserstrahl (Punkt oder Linie) wird auf das Objekt gerichtet; eine Kamera misst den Abstand anhand des Ablenkwinkels des Laserlichts.

  • Vorgehen:

    1. Laser projiziert Linie oder Punkt.

    2. Kamera erfasst die reflektierte Linie aus einem definierten Winkel.

    3. Triangulationsrechnung liefert die Distanz zum Objekt.

  • Vorteile:

    • Sehr präzise (<0,01 mm) und wiederholgenau

    • Unempfindlich gegenüber Umgebungslicht, da Laser hoher Kontrast

  • Nachteile:

    • Punktweises Abtasten (Scandauer kann mehrere Minuten betragen)

    • Reflexionsempfindlich bei durchsichtigem oder spiegelndem Material

Time-of-Flight (ToF)

  • Prinzip: Messung der Laufzeit von Lichtimpulsen (meist Laser oder LED) zwischen Projektor und Objekt.

  • Vorgehen:

    1. IR‑Impuls wird ausgesendet.

    2. Sensor misst die Rückkehrzeit des reflektierten Lichts.

    3. Einfache Distanzberechnung: D=c⋅t2D = \tfrac{c \cdot t}{2} (c = Lichtgeschwindigkeit).

  • Vorteile:

    • Große Reichweite (bis zu 100 m)

    • Schnelle Erfassung ganzer Szenen in Echtzeit (30 fps oder mehr)

  • Nachteile:

    • Geringere Genauigkeit (~1–5 mm)

    • Streulicht und Mehrfachreflexionen können zu Artefakten führen

Photogrammetrie

  • Prinzip: Rekonstruktion eines 3D‑Modells aus einer Serie von 2D‑Fotos mit hoher Überlappung.

  • Vorgehen:

    1. Objekt aus unterschiedlichen Blickwinkeln fotografieren (mind. 60–100 Bilder).

    2. Software sucht in allen Bildern gemeinsame Merkmale (Feature‑Matching).

    3. Structure‑from‑Motion (SfM) berechnet Kamera‑Positionen und erzeugt eine dichte Punktwolke.

  • Vorteile:

    • Sehr kostengünstig (einfach Kamera oder sogar Smartphone)

    • Große Flächen und komplexe Szenen (Landschaften, Architektur) möglich

  • Nachteile:

    • Abhängig von Textur und Beleuchtung – bei homogenen Flächen schwierig

    • Aufwändiger Datenabgleich und lange Rechenzeiten

Vergleich & Einsatzgebiete

VerfahrenGenauigkeitScanzeitReichweiteTypische Anwendung
Strukturiertes Licht0,01–0,1 mm< 1 Sekunde0,2  –  5 mReverse Engineering, Klein­teile
Laser‑Triangulation0,01 mmMinuten0,1  –  2 mPräzisions­inspektion
Time‑of‑Flight1 – 5 mmEchtzeit (30 fps)1  –  100 mRobotik, autonome Fahrzeuge
Photogrammetrie0,1 – 1 mmStunden (Erfassung & Verarbeitung)Bis unbegrenztDenkmal­dokumentation, Luftbild

Detailliertes Vorgehen

  1. Kalibrierung

    • Kamera- und Projektor-Module werden genau aufeinander abgestimmt.

    • Bekannte Referenzobjekte (z. B. ein Kalibrierungswürfel) sorgen dafür, dass später alle Messwerte aufeinander bezogen sind.

  2. Projektion und Erfassung

    • Der Projektor wirft ein codiertes Infrarotmuster auf die Objektoberfläche.

    • Mehrere Infrarot-Kameras nehmen das verzerrte Muster aus verschiedenen Blickwinkeln auf.

    • Da Infrarotlicht unsichtbar für das menschliche Auge ist, stört es weder Mensch noch Material.

  3. Punktwolken‑Berechnung

    • Die Software analysiert die Verschiebung jedes Musterelements pixelgenau.

    • Für jeden Messpunkt wird die 3D‑Koordinate berechnet und als Punktwolke abgespeichert.

  4. Zusammenführung mehrerer Scans

    • Dreht man das Objekt oder bewegt den Scanner, entstehen Teil‑Punktwolken.

    • Algorithmen (Alignment) fügen diese zu einer einzigen, vollständigen Punktwolke zusammen.

  5. Mesh‑Generierung

    • Aus der Punktwolke wird ein Dreiecksnetz (Mesh) erzeugt.

    • Löcher werden gefüllt und überflüssige Punkte reduziert, um ein glattes Oberflächenmodell zu erhalten.

  6. CAD‑Modellableitung

    • Parametrische Flächen (NURBS, Flächenzüge) werden auf das Mesh gelegt.

    • Kanten und Bohrungen lassen sich als Volumenkörper ableiten (Feature‑Erkennung).

    • Maße, Toleranzen und fertigungsrelevante Eigenschaften werden ergänzt.

Vom Rohdatensatz zum fertigen CAD‑Modell

  • Nachbearbeitung: Glätten, Rauschentfernung, Schlussprüfung der Geometrie

  • Feature‑Erkennung: Auto‑Identifikation von Zylindern, Ebenen und Bohrungen

  • Export: In gängige CAD‑Formate (IGES, STEP, Parasolid) für Konstruktion oder Fertigung

3D-Scanning ist ein berührungsloses Verfahren, mit dem die Form und Oberfläche eines realen Objekts in digitale Daten überführt werden. Dabei entstehen Punktwolken; bis hin zu Millionen von Einzelkoordinaten die präzise die Konturen des Objekts abbilden. Aus diesen Rohdaten kann anschließend ein CAD‑Modell generiert werden, das alle geometrischen Merkmale detailgetreu wiedergibt.