Vom Nutzen von GeForce Boost und einem AMD K8 Prozessor

Vom Nutzen von GeForce Boost und einem AMD K8 Prozessor

  Vom Nutzen von GeForce Boost und einem AMD K8 Prozessor

Vor einiger Zeit haben wir uns in einem Artikel mit Hybrid SLI bzw. vor allem GeForce Boost beschäftigt. Das Fazit fiel damals eher verhalten aus, GeForce Boost machte zwar einen etwas ausgereifteren Eindruck als AMDs Hybrid CrossFire, so wirklich brauchbar ist aber auch nVidias Technologie noch nicht. Während unserem Test des ASRock K10N78FullHD-hSLI ist uns eine weitere Besonderheit an Hybrid SLI aufgefallen, der wir im Weiteren näher nachgehen wollen. So zeigte GeForce Boost im Betrieb mit K8 CPUs eine deutlich schlechtere Performance als im Betrieb mit Phenom CPUs. Doch womit hängt dieses Problem zusammen?

Testsystem

Verwendete CPUs:

    • AMD Phenom 9850 – B3 Stepping
    • AMD Athlon X2 4200+ – G1 Stepping

Die CPUs wurden mit unterschiedlichen HT-Taktraten und (beim Phenom) Anzahl an Kernen getestet. Die genaue Taktung könnt ihr den jeweiligen Diagrammen entnehmen. Die Details zur CPU sind dort in folgendem Schema vermerkt: CPU Typ – Kerntakt – HT-Takt – Speichermodus (Phenom)

Verwendete Treiber

  • Windows VISTA 64 Bit SP1 Business inkl. aller aktuellen Updates
  • nVidia nForce Treiberpaket 18.08
  • nVidia GeForce 175.19

Eine Frage der Kerne?

Zu allererst taucht natürlich die Frage auf, liegt es nicht einfach daran, dass es sich bei den K8 CPUs um Zweikerner und den K10 CPUs um Vierkerner handelt? Aus diesem Grunde haben wir unter Windows „einfach“ zwei Kerne des Phenoms deaktiviert.

1  Vom Nutzen von GeForce Boost und einem AMD K8 Prozessor

Das Ergebnis ist recht eindeutig. Sicherlich verhelfen die zwei zusätzlichen Kerne dem Phenom zu einigen Punkten mehr, wirklich groß sind die Unterschiede aber nicht. Vor allem sind die Unterschiede nicht der Grund für die massiv schlechtere Performance mit K8 CPUs. Doch wie groß sind die Unterschiede zwischen K8 und K10 genau. Hierfür betrachten wir den K10 mit einem HT Takt von 1000 MHz (jeweils mit zwei und vier Kernen) sowie einem K8.

  Vom Nutzen von GeForce Boost und einem AMD K8 Prozessor

Wie man sieht fällt die GeForce Boost (aber auch die IGP) Performance mit dem K8 doch deutlich ab. Die Performance einer einzelnen GeForce 8500 GT bleibt allerdings fast identisch.

Schauen wir uns das ganze noch mal bei einem noch niedrigeren HT-Takt an.

  Vom Nutzen von GeForce Boost und einem AMD K8 Prozessor

Das Bild ist ähnlich, die Unterschiede sind allerdings deutlich geringer. Dafür fällt auf, dass die Performance insgesamt massiv gesunken ist. Aus diesem Grunde schauen wir uns die Performance mal nur mit unterschiedlichen HT-Taktraten an.

  Vom Nutzen von GeForce Boost und einem AMD K8 Prozessor

Die Unterschiede zwischen den einzelnen Taktstufen sind erheblich, zumindest bei der GeForce Boost und der IGP Performance. Die diskrete GeForce 8500 GT ist von den unterschiedlichen Taktraten des HT-Bus relativ unbeeindruckt. Ein Schuldiger für die schlechtere Hybrid SLI Performance scheint gefunden – der HT-Takt. Während unser Phenom 9850 hier mit ganzen 2 GHz arbeitet, sind es bei den K8 CPUs lediglich 1 GHz. Doch selbst der Phenom mit 1 GHz HT-Takt und 2 Kernen arbeitet noch immer schneller als der K8 mit ähnlichen Rahmenbedingungen. Was könnten weitere Gründe für diese Probleme sein? Schauen wir uns mal die Speicherbandbreite der K8 und K10 CPUs mit unterschiedlichen HT-Taktraten an.

  Vom Nutzen von GeForce Boost und einem AMD K8 Prozessor

  Vom Nutzen von GeForce Boost und einem AMD K8 Prozessor

Während die Speicherbandbreite kaum durch unterschiedliche HT-Taktraten beeinflusst wird fällt allerdings auf, dass der K8 eine deutlich schlechtere Speicherbandbreite aufweist. Liegt dies vltt. am Ganged Modus des K10 ? Vergleichen wir einmal Ganged und Unganged.

  Vom Nutzen von GeForce Boost und einem AMD K8 Prozessor

  Vom Nutzen von GeForce Boost und einem AMD K8 Prozessor

Unganged ist im read Bereich zwar etwas schlechter, die GeForce Boost und IGP Performance ist in beiden Betriebsmodi allerdings relativ ähnlich.

Bei Näherer Überlegung fällt auf, dass der Speicher durch die Teilerproblematik beim K8 niedriger getaktet ist. als beim K10. Während unsere DDR2 800 Module beim K10 wirklich mit 800 MHz laufen, sind es beim K8 nur 733 MHz. Um diesen Unterschied als Grund auszuschließen, jagen wir den Speichertakt beim K8 einmal höher, auf immerhin 446 MHz. Die CPU ist durch diese Übertaktung allerdings minimal höher (2240 vs. 2200 MHz) und der HT-Bus etwas niedriger getaktet (956 vs. 1000 MHz), aber dennoch sollten diese Werte einen guten Vergleich ermöglichen.

  Vom Nutzen von GeForce Boost und einem AMD K8 Prozessor

  Vom Nutzen von GeForce Boost und einem AMD K8 Prozessor

Der höhere Speichertakt scheint die IGP und GeForce Boost Werte zwar etwas zu beschleunigen , die großen Unterschiede werden hierdurch allerdings noch nicht ausgebügelt.

Halten wir fest – Die Anzahl an Kerne können wir aufgrund der Benchmarks für die Probleme ausschließen. Der geringere HT-Takt der K8 CPUs scheint hingegen ein großes Problem zu sein. Zudem ist die Speicherbandbreite auf dem Board mit dem wir getestet haben deutlich schlechter, was die Performance offenbar zusätzlich beeinflusst. Sind die Probleme neben dem HT-Takt also Boardspezifisch? Testen wir ein anderes:

12  Vom Nutzen von GeForce Boost und einem AMD K8 Prozessor

  Vom Nutzen von GeForce Boost und einem AMD K8 Prozessor

Auch hier zeigt sich das gleiche Bild. Die GeForce Boost Performance scheint mit K8 CPUs auf dem K10N750SLI-WiFi zwar etwas besser zu sein, es gibt aber noch immer sehr große Unterschiede zwischen K8 und K10 Performance. Leider liegt uns derzeit kein GeForce Boost Mainboard eines anderen Herstellers vor um zu überprüfen, ob die Probleme der geringen Speicherbandbreite eventuell Herstellerspezifisch sind. Dennoch wird klar, GeForce Boost ist auf K8 Systemen kaum sinnvoll, dabei richtet sich GeForce Boost doch gerade an den eher preisbewussten Käufer und kleinere Computer – gerade die Zielgruppe die am ehesten auf K8 CPUs setzt. Doch wieso ist GeForce Boost und die IGP-Performance offenbar so bandbreitenlastig ?

Hier können wir letztlich natürlich nur spekulieren, da uns keine näheren Details zur internen Struktur des GeForce 8200 vorliegt, aber bereits ein Blick auf das Blockdiagramm des GeForce 8200 erklärt einige Dinge recht gut.

  Vom Nutzen von GeForce Boost und einem AMD K8 Prozessor

Bei dem GeForce 8200 handelt es sich um ein Ein Chip Design, die integrierte Grafikeinheit sowie die Peripherieeinheiten sind also in einem Chip vereint. Dieser Chip kommuniziert über den HT-Bus mit der CPU. Die IGP-Einheit muss zudem über den HT-Bus und den integrierten Speichercontroller der CPU mit dem Arbeitsspeicher kommunizieren, von dem ein Teil der Grafikkarte als VRAM zugeteilt wird (shared Memory). Bereits hier wird klar, dass einiges an Daten über den HT-Bus geschleust werden muss. Eine dedizierte Grafikkarte mit eigenem Speicher ist klar im Vorteil, hier findet über den HT-Bus nur die normale Kommunikation zwischen Chipsatz und CPU statt. Die zusätzliche Datenmenge, die anfällt damit der integrierte Grafikkern mit dem Arbeitsspeicher kommunizieren kann fäll weg. Wir erinnern uns an die Benchmarks des Phenoms mit unterschiedlichen HT-Taktraten – die Performance der IGP Einheit war abhängig vom HT-Takt. Der dedizierten Grafkkarte war dieser Unterschied egal. Aber wieso fällt der Unterschied mit GeForce Boost so groß aus. Die Gründe hierfür können vielfältig sein und lassen sich, ohne Informationen über die genaue interne Struktur, leider auch nur mutmaßen.

Einige Dinge sind aber klar. Wenn nur eine Karte im SLI Verbund langsamer wird als die andere ist hiervon auch die Leistung des SLI Verbundes maßgeblich betroffen, da nVidia bei GeForce Boost mit dem Alternate Frame Rendering Verfahren arbeitet (AFR). Hier berechnet jeder Grafikkern das jeweils nächste Bild. (Bspw. rechnet Kern 1 alle geraden und Kern 2 alle ungeraden Bilder). Gleichzeitig benötigt ein solcher SLI Verbund eine entsprechen Kommunikation zwischen den einzelnen Grafikchips. Denn letztlich muss eine Grafikarte das fertige Bild an die Grafikkarte weiterleiten, die für die Bildausgabe zuständig ist. All dies sind auch Gründe, weshalb AMD und nVidia bei den großen Grafikkarten auf entsprechende SLI/CrossFire Brücken setzen, über die die Grafikkarten untereinander kommunizieren können.

Im Falle von GeForce Boost gibt es diese direkte Verbindung zwischen beiden Grafikkernen allerdings nicht. Was letztlich bedeutet, dass die gesamte Kommunikation über den PCIe und HT Bus stattfinden muss – eine weitere Erklärung für die Probleme mit geringem HT-Takt. Bleibt letztlich nur noch die Frage – was ist der Grund für die geringere Speicherbandbreite? Hier müssen wir die Antwort vorerst schuldig bleiben. Hier gilt zuerst abzuklären, ob die Probleme nicht möglicherweise Herstellerspezifisch sind.

Und das Fazit des ganzen? Die Benchmarks zeigen doch recht deutlich, dass die Luft für GeForce Boost immer dünner wird. Einerseits ist die Performance von GeForce Boost ein sehr zweischneidiges Schwert, andererseits scheint man nur mit Phenom CPUs (vor allem aufgrund des höheren HT-Taktes) die volle Power von GeForce Boost nutzen zu können. K8 User schauen (abseits der Speicherbandbreitenproblematik) in die Röhre. In den kommenden Wochen werden wir unsere Benchmarks in einem Hybrid CorssFire System nochmal wiederholen um zu testen ob man bei AMD nicht mit ähnlichen Problemen zu kämpfen hat. Möglich ist dies!

Nach oben scrollen