Gigabyte GeForce GTX 980 Ti Gigabyte GeForce GTX 980 Ti
Gigabyte GeForce GTX Titan X Gigabyte GeForce GTX Titan X
VS

Vergleich Gigabyte GeForce GTX 980 Ti vs Gigabyte GeForce GTX Titan X

Gigabyte GeForce GTX 980 Ti

WINNER
Gigabyte GeForce GTX 980 Ti

Bewertung: 46 Punkte
Gigabyte GeForce GTX Titan X

Gigabyte GeForce GTX Titan X

Bewertung: 43 Punkte
Grad
Gigabyte GeForce GTX 980 Ti
Gigabyte GeForce GTX Titan X
Leistung
5
6
Speicher
4
4
Allgemeine Informationen
7
7
Funktionen
7
7
Benchmark-Tests
5
4
Häfen
3
3

Beste Spezifikationen und Funktionen

Passmark-Punktzahl

Gigabyte GeForce GTX 980 Ti: 13714 Gigabyte GeForce GTX Titan X: 12942

3DMark Cloud Gate GPU-Benchmark-Ergebnis

Gigabyte GeForce GTX 980 Ti: 97658 Gigabyte GeForce GTX Titan X:

3DMark Fire Strike Score

Gigabyte GeForce GTX 980 Ti: 14150 Gigabyte GeForce GTX Titan X:

3DMark Fire Strike Graphics-Testergebnis

Gigabyte GeForce GTX 980 Ti: 16738 Gigabyte GeForce GTX Titan X:

3DMark 11 Leistungs-GPU-Benchmark-Ergebnis

Gigabyte GeForce GTX 980 Ti: 22754 Gigabyte GeForce GTX Titan X:

Beschreibung

Die Gigabyte GeForce GTX 980 Ti-Grafikkarte basiert auf der Maxwell-Architektur. Gigabyte GeForce GTX Titan X auf der Maxwell 2.0-Architektur. Der erste hat 8000 Millionen Transistoren. Die zweite ist 8000 Millionen. Gigabyte GeForce GTX 980 Ti hat eine Transistorgröße von 28 nm gegenüber 28.

Die Basistaktrate der ersten Grafikkarte beträgt 1000 MHz gegenüber 1000 MHz für die zweite.

Lassen Sie uns zur Erinnerung übergehen. Gigabyte GeForce GTX 980 Ti hat 6 GB. Gigabyte GeForce GTX Titan X hat 6 GB installiert. Die Bandbreite der ersten Grafikkarte beträgt 337 Gb/s gegenüber 337 Gb/s der zweiten.

FLOPS von Gigabyte GeForce GTX 980 Ti sind 5.36. Bei Gigabyte GeForce GTX Titan X 6.02.

Geht zu Tests in Benchmarks. Im Passmark-Benchmark hat Gigabyte GeForce GTX 980 Ti 13714 Punkte erzielt. Und hier ist die zweite Karte 12942 Punkte. Im 3DMark erzielte das erste Modell 16738 Punkte. Zweite Keine Daten verfügbar Punkte.

In Bezug auf Schnittstellen. Die erste Grafikkarte wird mit PCIe 3.0 x16 verbunden. Die zweite ist PCIe 3.0 x16. Grafikkarte Gigabyte GeForce GTX 980 Ti hat Directx-Version 12. Grafikkarte Gigabyte GeForce GTX Titan X – Directx-Version – 12.1.

Warum Gigabyte GeForce GTX 980 Ti besser ist als Gigabyte GeForce GTX Titan X

  • Passmark-Punktzahl 13714 против 12942 , mehr dazu 6%

Vergleich von Gigabyte GeForce GTX 980 Ti und Gigabyte GeForce GTX Titan X: grundlegende momente

Gigabyte GeForce GTX 980 Ti
Gigabyte GeForce GTX 980 Ti
Gigabyte GeForce GTX Titan X
Gigabyte GeForce GTX Titan X
Leistung
GPU-Basistaktgeschwindigkeit
Die Grafikprozessoreinheit (GPU) hat eine hohe Taktrate.
1000 MHz
max 2457
Durchschnitt: 1124.9 MHz
1000 MHz
max 2457
Durchschnitt: 1124.9 MHz
GPU-Speichergeschwindigkeit
Dies ist ein wichtiger Aspekt für die Berechnung der Speicherbandbreite.
1753 MHz
max 16000
Durchschnitt: 1468 MHz
1753 MHz
max 16000
Durchschnitt: 1468 MHz
FLOPS
Die Messung der Rechenleistung eines Prozessors wird als FLOPS bezeichnet.
5.36 TFLOPS
max 1142.32
Durchschnitt: 53 TFLOPS
6.02 TFLOPS
max 1142.32
Durchschnitt: 53 TFLOPS
Rom
RAM in Grafikkarten (auch Videospeicher oder VRAM genannt) ist ein spezieller Speichertyp, der von einer Grafikkarte zum Speichern von Grafikdaten verwendet wird. Es dient als temporärer Puffer für Texturen, Shader, Geometrie und andere Grafikressourcen, die zum Anzeigen von Bildern auf dem Bildschirm benötigt werden. Durch mehr RAM kann die Grafikkarte mit mehr Daten arbeiten und komplexere Grafikszenen mit hoher Auflösung und Details verarbeiten. Vollständig anzeigen
6 GB
max 128
Durchschnitt: 4.6 GB
12 GB
max 128
Durchschnitt: 4.6 GB
Anzahl der PCIe-Lanes
Die Anzahl der PCIe-Lanes in Grafikkarten bestimmt die Geschwindigkeit und Bandbreite der Datenübertragung zwischen der Grafikkarte und anderen Computerkomponenten über die PCIe-Schnittstelle. Je mehr PCIe-Lanes eine Grafikkarte hat, desto größer ist die Bandbreite und die Fähigkeit, mit anderen Computerkomponenten zu kommunizieren. Vollständig anzeigen
16
max 16
Durchschnitt:
16
max 16
Durchschnitt:
L1-Cache-Größe
Die Größe des L1-Cache in Grafikkarten ist normalerweise gering und wird in Kilobyte (KB) oder Megabyte (MB) gemessen. Es wurde entwickelt, um die aktivsten und am häufigsten verwendeten Daten und Anweisungen vorübergehend zu speichern, sodass die Grafikkarte schneller darauf zugreifen und Verzögerungen bei Grafikvorgängen reduzieren kann. Vollständig anzeigen
48
48
Pixel-Rendering-Geschwindigkeit
Je höher die Pixel-Rendering-Geschwindigkeit, desto flüssiger und realistischer wird die Darstellung von Grafiken und die Bewegung von Objekten auf dem Bildschirm. Vollständig anzeigen
96 GTexel/s    
max 563
Durchschnitt: 94.3 GTexel/s    
96 GTexel/s    
max 563
Durchschnitt: 94.3 GTexel/s    
TMUs
Verantwortlich für die Texturierung von Objekten in 3D-Grafiken. TMU verleiht den Oberflächen von Objekten Texturen, die ihnen ein realistisches Aussehen und Details verleihen. Die Anzahl der TMUs in einer Grafikkarte bestimmt ihre Fähigkeit, Texturen zu verarbeiten. Je mehr TMUs vorhanden sind, desto mehr Texturen können gleichzeitig verarbeitet werden, was zu einer besseren Texturierung von Objekten beiträgt und den Realismus von Grafiken erhöht. Vollständig anzeigen
176
max 880
Durchschnitt: 140.1
192
max 880
Durchschnitt: 140.1
ROPs
Verantwortlich für die endgültige Verarbeitung der Pixel und deren Anzeige auf dem Bildschirm. ROPs führen verschiedene Vorgänge an Pixeln durch, z. B. das Mischen von Farben, das Anwenden von Transparenz und das Schreiben in den Framebuffer. Die Anzahl der ROPs in einer Grafikkarte beeinflusst ihre Fähigkeit, Grafiken zu verarbeiten und anzuzeigen. Je mehr ROPs, desto mehr Pixel und Bildfragmente können gleichzeitig verarbeitet und auf dem Bildschirm angezeigt werden. Eine höhere Anzahl von ROPs führt im Allgemeinen zu einer schnelleren und effizienteren Grafikwiedergabe und einer besseren Leistung in Spielen und Grafikanwendungen. Vollständig anzeigen
96
max 256
Durchschnitt: 56.8
96
max 256
Durchschnitt: 56.8
Anzahl der Shader-Blöcke
Die Anzahl der Shader-Einheiten in Grafikkarten bezieht sich auf die Anzahl paralleler Prozessoren, die Rechenoperationen in der GPU ausführen. Je mehr Shader-Einheiten in der Grafikkarte vorhanden sind, desto mehr Rechenressourcen stehen für die Verarbeitung von Grafikaufgaben zur Verfügung. Vollständig anzeigen
2816
max 17408
Durchschnitt:
3072
max 17408
Durchschnitt:
L2-Cache-Größe
Wird zum vorübergehenden Speichern von Daten und Anweisungen verwendet, die von der Grafikkarte bei der Durchführung von Grafikberechnungen verwendet werden. Ein größerer L2-Cache ermöglicht es der Grafikkarte, mehr Daten und Anweisungen zu speichern, was dazu beiträgt, die Verarbeitung von Grafikvorgängen zu beschleunigen. Vollständig anzeigen
3000
3000
Turbo-GPU
Wenn die GPU-Geschwindigkeit unter ihr Limit gefallen ist, kann zur Verbesserung der Leistung eine hohe Taktrate erreicht werden.
1076 MHz
max 2903
Durchschnitt: 1514 MHz
1089 MHz
max 2903
Durchschnitt: 1514 MHz
Texturgröße
Jede Sekunde wird eine bestimmte Anzahl von strukturierten Pixeln auf dem Bildschirm angezeigt.
176 GTexels/s
max 756.8
Durchschnitt: 145.4 GTexels/s
192 GTexels/s
max 756.8
Durchschnitt: 145.4 GTexels/s
Architekturname
Maxwell
Maxwell 2.0
GPU-Name
GM200
GM200
Speicher
Speicherbandbreite
Dies ist die Geschwindigkeit, mit der das Gerät Informationen speichert oder liest.
337 GB/s
max 2656
Durchschnitt: 257.8 GB/s
337 GB/s
max 2656
Durchschnitt: 257.8 GB/s
Effektive Speichergeschwindigkeit
Der effektive Speichertakt wird aus der Größe und Übertragungsrate der Speicherinformationen berechnet. Die Leistung des Geräts in Anwendungen hängt von der Taktfrequenz ab. Je höher, desto besser. Vollständig anzeigen
7012 MHz
max 19500
Durchschnitt: 6984.5 MHz
7012 MHz
max 19500
Durchschnitt: 6984.5 MHz
Rom
RAM in Grafikkarten (auch Videospeicher oder VRAM genannt) ist ein spezieller Speichertyp, der von einer Grafikkarte zum Speichern von Grafikdaten verwendet wird. Es dient als temporärer Puffer für Texturen, Shader, Geometrie und andere Grafikressourcen, die zum Anzeigen von Bildern auf dem Bildschirm benötigt werden. Durch mehr RAM kann die Grafikkarte mit mehr Daten arbeiten und komplexere Grafikszenen mit hoher Auflösung und Details verarbeiten. Vollständig anzeigen
6 GB
max 128
Durchschnitt: 4.6 GB
12 GB
max 128
Durchschnitt: 4.6 GB
DDR-Speicherversionen
Die neuesten Versionen des GDDR-Speichers bieten hohe Datenübertragungsraten, um die Gesamtleistung zu verbessern
5
max 6
Durchschnitt: 4.9
5
max 6
Durchschnitt: 4.9
Speicherbusbreite
Ein breiter Speicherbus bedeutet, dass er mehr Informationen in einem Zyklus übertragen kann. Diese Eigenschaft beeinflusst die Speicherleistung sowie die Gesamtleistung der Grafikkarte des Geräts. Vollständig anzeigen
384 bit
max 8192
Durchschnitt: 283.9 bit
384 bit
max 8192
Durchschnitt: 283.9 bit
Allgemeine Informationen
Kristallgröße
Die physikalischen Abmessungen des Chips, auf dem sich die für den Betrieb der Grafikkarte notwendigen Transistoren, Mikroschaltungen und andere Komponenten befinden. Je größer die Chipgröße, desto mehr Platz nimmt die GPU auf der Grafikkarte ein. Größere Chipgrößen können mehr Rechenressourcen wie CUDA-Kerne oder Tensorkerne bereitstellen, was zu einer höheren Leistung und Grafikverarbeitungsfähigkeiten führen kann. Vollständig anzeigen
601
max 826
Durchschnitt: 356.7
max 826
Durchschnitt: 356.7
Generation
Eine neue Generation von Grafikkarten umfasst in der Regel eine verbesserte Architektur, höhere Leistung, eine effizientere Energienutzung, verbesserte Grafikfunktionen und neue Funktionen. Vollständig anzeigen
GeForce 900
GeForce 900
Hersteller
TSMC
TSMC
Stromverbrauch (TDP)
Die Anforderungen an die Wärmeableitung (TDP) sind die maximal mögliche Energiemenge, die vom Kühlsystem abgeführt wird. Je niedriger die TDP, desto weniger Strom wird verbraucht Vollständig anzeigen
250 W
Durchschnitt: 160 W
250 W
Durchschnitt: 160 W
Technologischer Prozess
Aufgrund der geringen Größe der Halbleiter handelt es sich um einen Chip der neuen Generation.
28 nm
Durchschnitt: 34.7 nm
28 nm
Durchschnitt: 34.7 nm
Anzahl Transistoren
Je höher ihre Zahl, desto mehr Prozessorleistung zeigt dies an.
8000 million
max 80000
Durchschnitt: 7150 million
8000 million
max 80000
Durchschnitt: 7150 million
PCIe-Verbindungsschnittstelle
Eine beträchtliche Geschwindigkeit der Erweiterungskarte, die verwendet wird, um den Computer mit den Peripheriegeräten zu verbinden, wird bereitgestellt. Die aktualisierten Versionen bieten beeindruckende Bandbreite und hohe Leistung. Vollständig anzeigen
3
max 4
Durchschnitt: 3
3
max 4
Durchschnitt: 3
Breite
282 mm
max 421.7
Durchschnitt: 192.1 mm
267 mm
max 421.7
Durchschnitt: 192.1 mm
Höhe
110 mm
max 620
Durchschnitt: 89.6 mm
110 mm
max 620
Durchschnitt: 89.6 mm
Zweck
Desktop
Desktop
Funktionen
OpenGL-Version
OpenGL bietet Zugriff auf die Hardwarefunktionen der Grafikkarte zur Anzeige von 2D- und 3D-Grafikobjekten. Neue Versionen von OpenGL umfassen möglicherweise Unterstützung für neue grafische Effekte, Leistungsoptimierungen, Fehlerbehebungen und andere Verbesserungen. Vollständig anzeigen
4.5
max 4.6
Durchschnitt:
4.4
max 4.6
Durchschnitt:
DirectX
Wird in anspruchsvollen Spielen verwendet und bietet verbesserte Grafik
12
max 12.2
Durchschnitt: 11.4
12.1
max 12.2
Durchschnitt: 11.4
Shader-Modellversion
Je höher die Version des Shader-Modells in der Grafikkarte ist, desto mehr Funktionen und Möglichkeiten stehen für die Programmierung grafischer Effekte zur Verfügung. Vollständig anzeigen
6.4
max 6.7
Durchschnitt: 5.9
6.4
max 6.7
Durchschnitt: 5.9
Vulkan-Version
Eine höhere Version von Vulkan bedeutet normalerweise einen größeren Satz an Funktionen, Optimierungen und Verbesserungen, die Softwareentwickler nutzen können, um bessere und realistischere grafische Anwendungen und Spiele zu erstellen. Vollständig anzeigen
1.3
max 1.3
Durchschnitt:
1.3
max 1.3
Durchschnitt:
CUDA-Version
Ermöglicht Ihnen die Nutzung der Rechenkerne Ihrer Grafikkarte für paralleles Rechnen, was in Bereichen wie wissenschaftlicher Forschung, Deep Learning, Bildverarbeitung und anderen rechenintensiven Aufgaben nützlich sein kann. Vollständig anzeigen
5.2
max 9
Durchschnitt:
6.1
max 9
Durchschnitt:
Benchmark-Tests
Passmark-Punktzahl
Der Passmark Video Card Test ist ein Programm zum Messen und Vergleichen der Leistung eines Grafiksystems. Es führt verschiedene Tests und Berechnungen durch, um die Geschwindigkeit und Leistung einer Grafikkarte in verschiedenen Bereichen zu bewerten. Vollständig anzeigen
13714
max 30117
Durchschnitt: 7628.6
12942
max 30117
Durchschnitt: 7628.6
3DMark Cloud Gate GPU-Benchmark-Ergebnis
97658
max 196940
Durchschnitt: 80042.3
max 196940
Durchschnitt: 80042.3
3DMark Fire Strike Score
14150
max 39424
Durchschnitt: 12463
max 39424
Durchschnitt: 12463
3DMark Fire Strike Graphics-Testergebnis
Es misst und vergleicht die Fähigkeit einer Grafikkarte, hochauflösende 3D-Grafiken mit verschiedenen grafischen Effekten zu verarbeiten. Der Fire Strike Graphics-Test umfasst komplexe Szenen, Beleuchtung, Schatten, Partikel, Reflexionen und andere grafische Effekte, um die Leistung der Grafikkarte beim Spielen und anderen anspruchsvollen Grafikszenarien zu bewerten. Vollständig anzeigen
16738
max 51062
Durchschnitt: 11859.1
max 51062
Durchschnitt: 11859.1
3DMark 11 Leistungs-GPU-Benchmark-Ergebnis
22754
max 59675
Durchschnitt: 18799.9
max 59675
Durchschnitt: 18799.9
3DMark Vantage Leistungstestergebnis
47992
max 97329
Durchschnitt: 37830.6
max 97329
Durchschnitt: 37830.6
3DMark Ice Storm GPU-Benchmark-Ergebnis
437297
max 539757
Durchschnitt: 372425.7
max 539757
Durchschnitt: 372425.7
Unigine Heaven 4.0 Testergebnis
Während des Unigine Heaven-Tests durchläuft die Grafikkarte eine Reihe grafischer Aufgaben und Effekte, deren Verarbeitung aufwändig sein kann, und zeigt das Ergebnis als numerischen Wert (Punkte) und eine visuelle Darstellung der Szene an. Vollständig anzeigen
2516
max 4726
Durchschnitt: 1291.1
2578
max 4726
Durchschnitt: 1291.1
SPECviewperf 12 Testergebnis – Showcase
89
max 180
Durchschnitt: 108.4
max 180
Durchschnitt: 108.4
SPECviewperf 12 Testergebnis – Maya
137
max 182
Durchschnitt: 129.8
max 182
Durchschnitt: 129.8
Octane Render-Testergebnis OctaneBench
Ein spezieller Test, mit dem die Leistung von Grafikkarten beim Rendern mit der Octane Render-Engine bewertet wird.
121
max 128
Durchschnitt: 47.1
124
max 128
Durchschnitt: 47.1
Häfen
Hat HDMI-Ausgang
Über den HDMI-Ausgang können Sie Geräte mit HDMI- oder Mini-HDMI-Anschlüssen anschließen. Sie können Video und Audio an das Display senden.
Ja
Ja
DisplayPort
Ermöglicht die Verbindung mit einem Display über DisplayPort
3
max 4
Durchschnitt: 2.2
3
max 4
Durchschnitt: 2.2
DVI-Ausgänge
Ermöglicht die Verbindung mit einem Display über DVI
1
max 3
Durchschnitt: 1.4
1
max 3
Durchschnitt: 1.4
Schnittstelle
PCIe 3.0 x16
PCIe 3.0 x16
HDMI
Eine digitale Schnittstelle, die zur Übertragung hochauflösender Audio- und Videosignale dient.
Ja
Ja

FAQ

Wie schneidet der Gigabyte GeForce GTX 980 Ti-Prozessor in Benchmarks ab?

Passmark Gigabyte GeForce GTX 980 Ti hat 13714 Punkte erzielt. Die zweite Grafikkarte erzielte in Passmark 12942 Punkte.

Welche FLOPS haben Grafikkarten?

FLOPS Gigabyte GeForce GTX 980 Ti sind 5.36 TFLOPS. Aber die zweite Grafikkarte hat FLOPS gleich 6.02 TFLOPS.

Welcher Stromverbrauch?

Gigabyte GeForce GTX 980 Ti 250 Watt. Gigabyte GeForce GTX Titan X 250 Watt.

Wie schnell sind Gigabyte GeForce GTX 980 Ti und Gigabyte GeForce GTX Titan X?

Gigabyte GeForce GTX 980 Ti arbeitet mit 1000 MHz. In diesem Fall erreicht die maximale Frequenz 1076 MHz. Die Taktbasisfrequenz von Gigabyte GeForce GTX Titan X erreicht 1000 MHz. Im Turbo-Modus erreicht er 1089 MHz.

Welchen Speicher haben Grafikkarten?

Gigabyte GeForce GTX 980 Ti unterstützt GDDR5. Installierte 6 GB RAM. Der Durchsatz erreicht 337 GB/s. Gigabyte GeForce GTX Titan X funktioniert mit GDDR5. Der zweite hat 12 GB RAM installiert. Seine Bandbreite beträgt 337 GB/s.

Wie viele HDMI-Anschlüsse haben sie?

Gigabyte GeForce GTX 980 Ti hat Keine Daten verfügbar HDMI-Ausgänge. Gigabyte GeForce GTX Titan X ist mit Keine Daten verfügbar HDMI-Ausgängen ausgestattet.

Welche Stromanschlüsse werden verwendet?

Gigabyte GeForce GTX 980 Ti verwendet Keine Daten verfügbar. Gigabyte GeForce GTX Titan X ist mit Keine Daten verfügbar HDMI-Ausgängen ausgestattet.

Auf welcher Architektur basieren Grafikkarten?

Gigabyte GeForce GTX 980 Ti basiert auf Maxwell. Gigabyte GeForce GTX Titan X verwendet die Architektur Maxwell 2.0.

Welcher Grafikprozessor wird verwendet?

Gigabyte GeForce GTX 980 Ti ist mit GM200 ausgestattet. Gigabyte GeForce GTX Titan X ist auf GM200 eingestellt.

Wie viele PCIe-Lanes

Die erste Grafikkarte hat 16 PCIe-Lanes. Und die PCIe-Version ist 3. Gigabyte GeForce GTX Titan X 16 PCIe-Lanes. PCIe-Version 3.

Wie viele Transistoren?

Gigabyte GeForce GTX 980 Ti hat 8000 Millionen Transistoren. Gigabyte GeForce GTX Titan X hat 8000 Millionen Transistoren