np.finfo(np.float128)
info(resolution=1e-18, min=-1.189731495357231765e+4932, max=1.189731495357231765e+4932, dtype=float128)
< /code>
Das ist also ein 80-Bit-Doppel. Ich möchte eine Faltung zwischen zwei einigermaßen langen Arrays von NP.Float128
s durchführen. scipy.signal.convolve funktioniert mit methode = 'Direct' , gibt jedoch die falsche Antwort für method = 'fft' an. Hier ist ein Spielzeugbeispiel: < /p>
Ich habe versucht, die Faltung mit Pyfftw von Grund auf neu zu implementieren, aber es gab immer noch die falsche Antwort. Um eine Flucht zu machen, die dem folgenden schnell und genau mit FFTS ähnelt: < /p>
Auf meinem Linux -System habe ich: < /p> [code]np.finfo(np.float128) info(resolution=1e-18, min=-1.189731495357231765e+4932, max=1.189731495357231765e+4932, dtype=float128) < /code> Das ist also ein 80-Bit-Doppel. Ich möchte eine Faltung zwischen zwei einigermaßen langen Arrays von NP.Float128 [/code] s durchführen. scipy.signal.convolve funktioniert mit methode = 'Direct' , gibt jedoch die falsche Antwort für method = 'fft' an. Hier ist ein Spielzeugbeispiel: < /p> [code]a = np.array(['1.e+401', '1.e+000', '1.e+401', '1.e+000'], dtype=np.float128)
convolve(a, a, mode='full', method='direct') array([1.e+802, 2.e+401, 2.e+802, 4.e+401, 1.e+802, 2.e+401, 1.e+000], dtype=float128) # correct convolve(a, a, mode='full', method='fft') array([1.e+802, 0.e+000, 2.e+802, 0.e+000, 1.e+802, 0.e+000, 0.e+000], dtype=float128) # wrong [/code] Ich habe versucht, die Faltung mit Pyfftw von Grund auf neu zu implementieren, aber es gab immer noch die falsche Antwort. Um eine Flucht zu machen, die dem folgenden schnell und genau mit FFTS ähnelt: < /p> [code]a = np.array([1e401, 1e000, 1e401, 1e000] * 10000, dtype=np.float128) convolve(a, a) [/code] Wie kann das geschehen?
Bei der Verwendung der Funktion Torch.fft.rfft von PyTorch habe ich festgestellt, dass die Angabe eines Ausgabetensors mithilfe des Parameters out langsamer ist, als die Ausgabe intern von PyTorch...
Bei der Verwendung der Funktion Torch.fft.rfft von PyTorch habe ich festgestellt, dass die Angabe eines Ausgabetensors mithilfe des Parameters out langsamer ist, als die Ausgabe intern von PyTorch...
Ich versuche, Code zu schreiben, das ein 3D -Bild mit einem 3D -Wavelet -Kernel verteilt, das mit drei unabhängigen Parametern beschrieben werden kann. Ich möchte die Ergebnisse der Faltung für alle...
Ich versuche, Code zu schreiben, das ein 3D -Bild mit einem 3D -Wavelet -Kernel verteilt, das mit drei unabhängigen Parametern beschrieben werden kann. Ich möchte die Ergebnisse der Faltung für alle...
Ich versuche, Code zu schreiben, das ein 3D -Bild mit einem 3D -Wavelet -Kernel verteilt, das mit drei unabhängigen Parametern beschrieben werden kann. Ich möchte die Ergebnisse der Faltung für alle...