Ich habe große Arrays in vielen Iterationen auch zu multiplizieren.Multiplikation von großen Arrays in Python
Ich trainiere ein Modell mit Array lang um 1500 und ich werde 3 Multiplikationen für etwa 1000000 mal durchführen, was eine lange Zeit fast Woche dauert.
fand ich Dask Ich versuchte es mit der normalen numpy Art und Weise zu vergleichen, aber ich fand numpy schneller:
x = np.arange(2000)
start = time.time()
y = da.from_array(x, chunks=(100))
for i in range (0,100):
p = y.dot(y)
#print(p)
print(time.time() - start)
print('------------------------------')
start = time.time()
p = 0
for i in range (0,100):
p = np.dot(x,x)
print(time.time() - start)
0,08502793312072754
0,00015974044799804688
verwende ich dask falsch oder es ist so schnell wie numpig?
Ich erhöhte den Brocken und das Beste ist 0,054, die immer noch weit von Numpy. Ich denke, wie Sie gesagt haben, ist Numpy bereits parallelisiert. Vielen Dank für Ihre ausführliche Erklärung, es ist jetzt klarer –
Ja, für kleine schnelle Probleme der Overhead von parallelen Computing-Frameworks in der Regel mehr in die Quere kommt als es hilft. – MRocklin