Las sombras en tiempo real son shadowmap, por lo tanto si estás trabajando de cara a render en post, y no prevees usar shadowmaps, no deja de ser una ayuda visual, y además poco fiel al resultado.
Toda representación que tenga que ver con raytracing, se hace MUY dificil programarlo para visualización 3D en tiempo real, ya que el raytracing depende de los pixeles de salida 2D.
Y si entramos a debatir lo que es visualización de gráficos 3D en realtime, y lo que es representación en postproceso, deberíamos analizar por qué nos inundan de cores las GPU's y no abaratan los precios de sistemas multiprocesador para acercarlos a pequeñas empresas.
Dicho de otro modo más ameno. Nos comen el coco vendiendonos soluciones en de bajo coste (que después resultan no ser tanto), como el uso de aceleración de gráficos con un hardware especifico (la tarjeta gráfica con instrucciones para opengl o directx), y ahora nos lo van a comer con hardware para acelerar fisicas (lo mismo que la grafica pero con instrucciones en ageia u otros motores de fisicas). Todo este hardware tan especifico es dependiente de software de bajo y de alto nivel; drivers y aplicaciones end-user. Lo cual compromete desde el rendimiento hasta la propia vida del hardware.
Por contra, las soluciones de alto coste, se basan unicamente en multiples procesadores centrales (CPU). Nuestras queridas maquinitas tiran de CPU cuando una instrucción de opengl no es acelerada por la GPU, o ahora mismo, lo que hacen para calcular una simulación de fisicas, sino tienes una PPU.
Realmente era necesario todo este hardware especifico para calculos intensivos con gran flujo de datos? La respuesta: comercialmente SI, ya que el cotarro de la informatica mundial doméstica y no tan doméstica lo ha manejado Intel y Microsoft a su antojo, con acuerdos que afectaban a miles de fabricantes de hardware y desarrolladores de software.
Tecnologicamente, NO, puesto que ya existian soluciones de alto rendimiento que hubieran reducido sus costes si no se hubiese dado esta situación en la historia reciente de la informatica.
Me sigue repateando como empresas que apostaron por soluciones más que interesantes, fracasan en su intento. Como el caso de Digital que lanzó su primer PC, sobre 1996, "bajando" su experiencia en estaciones gráficas; con doble procesador Alpha de 64bits a 500Mhz (todos los buses de aquel pc, iban a 500MHz,), basado totalmente en RISC, aplastando literalmente al super PentiumPro (que fallaba en una operación de resta). Si, intel seguiría rentabilizando sus obsoleta arquitectura de 32bits CISC y hasta hace bien poco.
Otro caso más de cercano. El fracaso de Orion-Systems (no he vuelto a saber nada de ello) por acercar al segmento "oficina" las supercomputadoras, consistemas a partir de 12 CPU's con 1GB de ram por micro, encapsulado todo ello en una cajita no mayor a un magnteoscopio tipico VHS, y además con una fuente de alimentación de 200W!, y por 10.000$
Vamos a dar las gracias a los grandes aportadores a la evolución de la informática. Tres hurras por Microsoft, Autodesk, Intel, Nvidia, y demás calaña...