Vielleicht starten wir mit der Erklärung bei den Basics.
Vsync, Tearing und VRR und Co. haben a alle ihre Relevanz, genauso wie die Paneel-Technologie und vieles weitere.
Aber erst mal zum Kern der Frage mit Hz und FPS.
Hz ist die Rate mit der Bilder vom Monitor Dargestellt werden. Wichtig in Unterschied zu FPS ist, dass dies normalerweise komplett gleichmäßig passiert denn Hz ist eine Frequenz-Angabe. Sprich ich kann bei 100Hz (100 Bilder pro Sek) auch davon ausgehen, das nach 0,5 Sek genau 50 Bilder Dargestellt werden.
FPS (frames per second) ist die Anzahl der Bilder die vom Bilderzeuger (idr. die GPU) geliefert werden pro Sekunde. Dabei sind diese in der Praxis zwar annähernd aber eben nie wirklich gleichmäßig verteilt.
Übertrieben könnte es sein, dass nach 0,5 Sekunden nur 20 Bilder erzeugt wurden und dann in der nächsten halben Sekunde die übrigen 80. In der Praxis reden wir hier eher von einer Differenz von 1-2 Bildern pro Sekunde, aber auch das macht schon einen Unterschied.
Warum? Weil wenn mein Monitor alle 0,01 Sekunden ein Bild malt, meine GPU die Bilder aber immer Abwechselnd nach 0,01001 und 0,00999 Sekunden liefert, dann hat mein Monitor nach 1 Sekunde zwar 100 Bilder Dargestellt, es waren aber nur 50 Verschiedene weil jedes zweite Bild einen hauch zu spät geliefert wurde.
Wenn Mein Monitor jetzt mehr als 100 Hz also z. B. 120 Hz hat, würde er in diesem Fall wahrscheinlich ca. 92 Bilder Darstellen, aber auch hier gibt es immer Bilder die aus der Erzeugung ausgelassen werden.
Grundsätzlich sind mehr Hz also besser, ob das wirklich einen Unterschied macht, fällt aber bei so kleinen Differenzen wenig ins Gewicht.
Mit einer Sync-Technologie wie VRR wartet der Monitor mit der Darstellung auf die Bilder die von der GPU geliefert werden. Dabei von Hz zu reden macht eigentlich wenig Sinn, und es wäre besser in dem Kontext wieder von FPS auch bei der darstellenden Komponente (Monitor) zu reden, denn Hz ist eine Frequenz und die liegt dann nicht mehr vor.