Petit test de charge avec les particules de ciel :


Petit test de charge avec les particules de ciel :




Aujourd’hui petit test avec un ciel artificiel en guise de particule, le résultat est assez plaisant. L’image affichée est composé de 10 demi-sphères représentant le ciel.

Premier test pour le canon à particule qui utilise pour particules d’autres objets. Ce screen montre un canon à particules utilisant un autre canon à particules en tant que particule.
Les nombreuses boites disgracieuses sont amenées à disparaitre, mais c’est un premier pas vers un nouveau jouet marrant.
Créee par hasard en testant le nouveau moteur à particule de Triton :

Les courbes de Béziers utilisées dans un canon à particules :

C’est encore relativement chaotique, mais il doit y avoir moyen d’en faire quelque chose de bien au final.

Cet hiver, vous pouvez dire né à la morosité ambiante et au ciel gris grâce au nouveau ciel virtuel intégré dans Triton (lien de téléchargement en fin de post). Ce ciel est le résultat d’une modélisation physique mené par A.J. Preetham, Peter Shirley & Brian Smits.
Leur papier aborde la simulation prenant en paramètre 2 facteurs :

Ciel de Paris avec une turbidité de 4/5 environ

Ciel quasi pur avec une turbidité de 2
La turbidité fait référence aux phénomènes atmosphériques globaux, mais plus particulièrement à la diffusion de lumière dû aux particules présentes dans l’atmosphère. Les véhicules automobiles rejetant un paquet de particule dans l’atmosphère, ce paramètre permet de visualiser directement les ciels pollués.
L’avantage d’intégrer ce ciel dans triton est évidemment la possibilité de manipuler facilement ces paramètres (traduction : avec 3 tirettes en gros), dans une interface pas trop dégueu :

Et pour finir encore 2 derniers screen de ce qu’on peut obtenir en variant les paramètres :

Levé de soleil avec une turbidité de 2

Lever de soleil avec une turbidité de 6
Le développement de Massive Stream a repris dernièrement, et à défaut de pouvoir bosser sur l’interface comme il le faudrait (ça prendras pas mal de temps), une éneurme feature va pointer le bout de son nez.
Cela va se passer en 2 étapes :
L’avantage du code natif c’est que ça va tracer sa maman voir son papa vu que ça va être ‘vectorisé’ (on pourra calculer 4 valeurs en un seul coup grâce aux instructions dites ‘vectorielles’ de vos jolis proco).
stay tuned
ça fait quelques jours que ça traine sur mon disque dur, les résultats du très long calcul sur les fractals, 6 secondes de vidéo. Aujourd’hui ce sont les résultats bruts qui sortent de MassiveStream.
Raw 1 Chaque image correspond au 8 bits de poids faible de l’image. Traduction : on ne garde que les détails de l’image, les zonez de hautes concentrations sont zappées.
final 1. Image traité, globalement par le même processus, ça ressemble beaucoup plus au résultat final. Seulement tous les détails sont littéralement écrasés. Donc la prochaine étape est d’appliquer une rampe de couleur pour obtenir une image faisant apparaitre les détails. Pour obtenir l’animation, il a fallu après avoir effectué le rendu, il a fallu établir des stats pour enfin pouvoir traiter les rendus et produire les images de l’animation.
(pour leur temps de calcul)