Ich arbeite an der Umwandlung einer transformationsortigen numerischen Pipeline von Numpy in Jax, um die JIT-Beschleunigung zu nutzen. Ich habe jedoch festgestellt, dass einige grundlegende Operationen wie Broadcast_to und Moveaxis in JAX - selbst ohne JIT - mit Numpy vergleichbar sind, und selbst für große Chargengrößen wie 3.000.000, in denen ich erwarten würde, dass Jax viel schneller ist. < /P>
Ich arbeite an der Umwandlung einer transformationsortigen numerischen Pipeline von Numpy in Jax, um die JIT-Beschleunigung zu nutzen. Ich habe jedoch festgestellt, dass einige grundlegende Operationen wie Broadcast_to und Moveaxis in JAX - selbst ohne JIT - mit Numpy vergleichbar sind, und selbst für große Chargengrößen wie 3.000.000, in denen ich erwarten würde, dass Jax viel schneller ist. < /P> [code]### Benchmark: moveaxis + broadcast_to ### NumPy: moveaxis + broadcast_to → 0.000116 s JAX: moveaxis + broadcast_to → 0.204249 s JAX JIT: moveaxis + broadcast_to → 0.054713 s
### Benchmark: broadcast_to only ### NumPy: broadcast_to → 0.000059 s JAX: broadcast_to → 0.062167 s JAX JIT: broadcast_to → 0.057625 s < /code> mache ich etwas falsch? Gibt es bessere Möglichkeiten, diese Art von Manipulationen auszuführen?import timeit
import jax import jax.numpy as jnp import numpy as np from jax import jit
Ich arbeite an der Umwandlung einer transformationsortigen numerischen Pipeline von Numpy in Jax, um die JIT-Beschleunigung zu nutzen. Ich habe jedoch festgestellt, dass einige grundlegende...
Ich habe zwei identische Programme erstellt (eine in Rost und eine in C ++). Sie sind einzelne Gewinde und es gibt keine Haufen Zuweisungen. C ++ - Version (kompiliert mit MSVC /O2 -Release oder GCC)...
Ich bin ein Jax -Anfänger und jemand mit Jax hat mir gesagt, dass wenn wir wiederholt Anrufe zu einem Scan / for Loop (z. B. wenn diese selbst für Loop selbst eingewickelt werden), könnte es besser...
Ich bin unter nativen Fenstern und habe zuvor alte Keras mit Tensorflow 2.10 (GPU beschleunigt) verwendet. Ich wollte Keras 3 mit Pytorch -Backend probieren. mehr als 2 Minuten mit TF und über 20...
Ich habe eine sehr grundlegende Gruppe nach Funktion, die ich in einem Cython -Objekt verwenden möchte, aber es ist etwas wie 400 -mal langsamer als eine ähnliche Funktion in Python, die von Numba...