Wenn ich lese, wie man den Richtungsvektor beim Raycasting erhält, zum Beispiel auf dieser Website: http://www.daimi.au.dk/~trier/?page_id=98
Sie rendern das Netz zunächst mit Front-Face-Culling und dann mit Back-Face-Culling. Dann wird die Rückseite von der Vorderseite subtrahiert, um einen Richtungsvektor für jedes Pixel zu erhalten.
Aber ist dies nicht zu viel Arbeit, um den Richtungsvektor zu erhalten, ist es nicht einfacher und schneller, nur die Vertex-Position (in Weltkoordinaten) zu nehmen und die Kameraposition im Fragment-Shader zu subtrahieren, um den Richtungsvektor zu erhalten? Das sollte genau die gleiche Antwort geben, aber wir überspringen das Backface- und Frontface-Rendering.