Nehmen wir an, wir haben im Durchschnitt einen Seitenfehler alle 20.000.000 Anweisungen, ein normaler Befehl dauert 2 Nanosekunden und ein Seitenfehler bewirkt, dass der Befehl weitere 10 Millisekunden benötigt. Wie hoch ist die durchschnittliche Unterrichtszeit unter Berücksichtigung von Seitenfehlern?Durchschnittliche Befehlszeit
Antwort
20.000.000 Anweisungen, einer von ihnen wird
Deshalb Seitiges Fehler, die 20.000.000 Anweisungen werden
(2 nanoseconds * 20,000,000) + 10 milliseconds
bekommen das Ergebnis (was die Gesamtzeit für 20 Millionen Anweisungen ist) nehmen und teilen sie durch die Anzahl der Anweisungen, um die Zeit pro Anweisung zu erhalten.
2,5 Nanosekunden? Ziemlich einfache Arithmetik, denke ich.
Wie hoch ist die durchschnittliche Befehlszeit unter Berücksichtigung von Seitenfehlern?
Die durchschnittliche Befehlszeit ist die Gesamtzeit, dividiert durch die Anzahl der Befehle.
Also: was ist die Gesamt Zeit für 20.000.000 Anweisungen?
Wenn 1 in 20.000.000 Anweisungen einen Seitenfehler verursacht dann haben Sie eine Seitenfehlerrate von:
Page Fault Rate = (1/20000000)
Sie können dann Ihre durchschnittliche Zeit pro Befehl berechnen:
Average Time = (1 - Page Fault Rate) * 2 ns + (Page Fault Rate * 10 ms)
kommt auf 2,5 ns/Anweisung
scheinen wie eine Hausaufgabe? – Aziz
Klingt wie Hausaufgaben für mich. – Noldorin
Jemand musste diese Frage hier stellen? "Ja wirklich?" –