Digitale Instrumente ersetzen in Notsituationen übliche Formen der Wissensvermittlung mit Livekontakt zwischen Schülerinnen, Schülern und Lehrpersonen. Ermöglichen sie darüber hinaus auch besseres Lernen? Wie können wertvolle Unterrichtsszenarien mit kognitiver Aktivierung, kooperativem Lernen und Selbststeuerung im Lernprozess in digitalen Umgebungen verwirklicht werden? Möglicherweise (auch) dadurch, dass digitale Welten von den Schülerinnen und Schülern selbst gestaltet werden.
Ich möchte hier ein Projekt vorstellen und hoffe, dass die technische Umsetzung möglich ist. Bitte alle, die Erfahrungen in diesem Bereich haben gerne melden. Jeder Tipp ist sehr willkommen.
Das Ziel des Projekts:
Es soll eine virtuell begehbare Zelle von den Schülerinnen und Schülern erstellt werden. Eltern, Lehrpersonen, Schülerinnen und Schüler sollen sich mit dem Tablet in der Hand durch einen Raum bewegen, in dem die Zellorganellen virtuell sichtbar und erkundbar sind. Die Zellorganellen sollen mit Erklärtexten, Links zu selbsterstellten Erklärvideos, Links zu Bildern oder Audiodateien versehen sein, die vom Betrachter aufgerufen werden können.
Was schon funktioniert:
a) Selbstgebaute Modelle von Zellorganellen werden 3D gescannt.
Technische Umsetzung:
Hardware: iPad pro
App: Qlone (kostenpflichtige EDU Lizenz ermöglicht den Export von Scans)
Fazit: die Qualität ist ok., kleine Fehler sind bei den Resultaten vorhanden. Runde Objekte sind eher problematisch (siehe Abb. Links). Objekte mit einer flachen Seite ergeben gute Resultate.
Beispielscans Apfel (Qlone). Das Problem bei runden Objekten ist hier sichtbar.
b) Beschriftung der Modelle
Technische Umsetzung:
Hardware: PC mit Windows 10
App: Paint 3D
c) Platzierung der Modelle im Raum
Technische Umsetzung:
Hardware: iPad pro
App: AdobeAero
Was noch nicht klappt:
Nun versuche ich herauszufinden, ob es möglich ist in einer AR-App Links zu platzieren. So dass z.B. Erklärtexte, Bilder, Erklärvideos, Audiodateien aus der AR-Anwendung heraus geöffnet werden können.
Diese Links könnten mit den gescannten 3D-Objekten verbunden sein oder auch getrennt von diesen in die AR-Umgebung platziert werden.
Beispiel für gescantes Model im Raum. Hier würde ich gerne Links einfügen können.
Hat jemand eine Idee zur Umsetzung oder Erfahrungen in dem Bereich?
Für Tipps (auch zum 3D-Scannen, der AR-Umsetzung) wäre ich sehr dankbar.