NVIDIA GeForce GTX TITAN Z NVIDIA GeForce GTX TITAN Z
Zotac GeForce GTX Titan X Zotac GeForce GTX Titan X
VS

Sammenligning NVIDIA GeForce GTX TITAN Z vs Zotac GeForce GTX Titan X

NVIDIA GeForce GTX TITAN Z

NVIDIA GeForce GTX TITAN Z

Bedømmelse: 30 point
Zotac GeForce GTX Titan X

WINNER
Zotac GeForce GTX Titan X

Bedømmelse: 43 point
Karakter
NVIDIA GeForce GTX TITAN Z
Zotac GeForce GTX Titan X
Ydeevne
5
6
Hukommelse
4
4
Generel information
7
7
Funktioner
8
7
Tests i benchmarks
3
4
Havne
7
3

Bedste specifikationer og funktioner

Passmark score

NVIDIA GeForce GTX TITAN Z: 9048 Zotac GeForce GTX Titan X: 12840

3DMark Fire Strike Graphics testresultat

NVIDIA GeForce GTX TITAN Z: 16972 Zotac GeForce GTX Titan X:

GPU base ur

NVIDIA GeForce GTX TITAN Z: 705 MHz Zotac GeForce GTX Titan X: 1000 MHz

vædder

NVIDIA GeForce GTX TITAN Z: 6 GB Zotac GeForce GTX Titan X: 12 GB

Hukommelses båndbredde

NVIDIA GeForce GTX TITAN Z: 336 GB/s Zotac GeForce GTX Titan X: 337 GB/s

Beskrivelse

Videokortet NVIDIA GeForce GTX TITAN Z er baseret på Kepler-arkitekturen. Zotac GeForce GTX Titan X på Maxwell 2.0-arkitekturen. Den første har 7080 millioner transistorer. Den anden er 8000 million. NVIDIA GeForce GTX TITAN Z har en transistorstørrelse på 28 nm versus 28.

Basis-clockhastigheden for det første videokort er 705 MHz versus 1000 MHz for det andet.

Lad os gå videre til hukommelsen. NVIDIA GeForce GTX TITAN Z har 6 GB. Zotac GeForce GTX Titan X har 6 GB installeret. Båndbredden på det første videokort er 336 Gb/s versus 337 Gb/s på det andet.

FLOPS af NVIDIA GeForce GTX TITAN Z er 4.95. Hos Zotac GeForce GTX Titan X 5.83.

Går til test i benchmarks. I Passmark-benchmarket opnåede NVIDIA GeForce GTX TITAN Z 9048 point. Og her er det andet kort 12840 point. I 3DMark fik den første model 16972 point. Andet Ingen data point.

Med hensyn til grænseflader. Det første videokort er tilsluttet ved hjælp af PCIe 3.0 x16. Den anden er PCIe 3.0 x16. Videokortet NVIDIA GeForce GTX TITAN Z har Directx-version 11.1. Videokort Zotac GeForce GTX Titan X – Directx-version – 12.1.

Med hensyn til køling har NVIDIA GeForce GTX TITAN Z 375W varmeafledningskrav mod 250W for Zotac GeForce GTX Titan X.

Hvordan er Zotac GeForce GTX Titan X bedre end NVIDIA GeForce GTX TITAN Z

Højdepunkter i sammenligning mellem NVIDIA GeForce GTX TITAN Z og Zotac GeForce GTX Titan X

NVIDIA GeForce GTX TITAN Z
NVIDIA GeForce GTX TITAN Z
Zotac GeForce GTX Titan X
Zotac GeForce GTX Titan X
Ydeevne
GPU base ur
Grafikprocessorenheden (GPU) er kendetegnet ved en høj clockhastighed.
705 MHz
max 2457
Gennemsnit: 1124.9 MHz
1000 MHz
max 2457
Gennemsnit: 1124.9 MHz
GPU-hukommelsesfrekvens
Dette er et vigtigt aspekt ved beregning af hukommelsesbåndbredde
1750 MHz
max 16000
Gennemsnit: 1468 MHz
1753 MHz
max 16000
Gennemsnit: 1468 MHz
FLOPPER
Målingen af en processors processorkraft kaldes FLOPS.
4.95 TFLOPS
max 1142.32
Gennemsnit: 53 TFLOPS
5.83 TFLOPS
max 1142.32
Gennemsnit: 53 TFLOPS
vædder
RAM i grafikkort (også kendt som videohukommelse eller VRAM) er en speciel type hukommelse, der bruges af et grafikkort til at gemme grafikdata. Den fungerer som en midlertidig buffer for teksturer, shaders, geometri og andre grafikressourcer, der er nødvendige for at vise billeder på skærmen. Mere RAM gør det muligt for grafikkortet at arbejde med flere data og håndtere mere komplekse grafiske scener med høj opløsning og detaljer. Vis fuld
6 GB
max 128
Gennemsnit: 4.6 GB
12 GB
max 128
Gennemsnit: 4.6 GB
Antal PCIe-baner
Antallet af PCIe-baner i videokort bestemmer hastigheden og båndbredden for dataoverførsel mellem videokortet og andre computerkomponenter gennem PCIe-grænsefladen. Jo flere PCIe-baner et videokort har, jo mere båndbredde og mulighed for at kommunikere med andre computerkomponenter. Vis fuld
16
max 16
Gennemsnit:
16
max 16
Gennemsnit:
L1 cache størrelse
Mængden af L1-cache i videokort er normalt lille og måles i kilobyte (KB) eller megabyte (MB). Det er designet til midlertidigt at gemme de mest aktive og hyppigst brugte data og instruktioner, hvilket giver grafikkortet mulighed for hurtigere at få adgang til dem og reducere forsinkelser i grafikoperationer. Vis fuld
16
48
Pixel-gengivelseshastighed
Jo højere pixelgengivelseshastigheden er, desto mere jævn og realistisk vil visningen af grafik og bevægelsen af objekter på skærmen være.
53 GTexel/s    
max 563
Gennemsnit: 94.3 GTexel/s    
96 GTexel/s    
max 563
Gennemsnit: 94.3 GTexel/s    
TMU'er
Ansvarlig for teksturering af objekter i 3D-grafik. TMU giver teksturer til overfladerne af objekter, hvilket giver dem et realistisk udseende og detaljer. Antallet af TMU'er i et videokort bestemmer dets evne til at behandle teksturer. Jo flere TMU'er, jo flere teksturer kan bearbejdes på samme tid, hvilket bidrager til bedre teksturering af objekter og øger realismen i grafikken. Vis fuld
240
max 880
Gennemsnit: 140.1
192
max 880
Gennemsnit: 140.1
ROP'er
Ansvarlig for den endelige behandling af pixels og deres visning på skærmen. ROP'er udfører forskellige handlinger på pixels, såsom at blande farver, anvende gennemsigtighed og skrive til framebufferen. Antallet af ROP'er i et videokort påvirker dets evne til at behandle og vise grafik. Jo flere ROP'er, jo flere pixels og billedfragmenter kan behandles og vises på skærmen på samme tid. Et højere antal ROP'er resulterer generelt i hurtigere og mere effektiv grafikgengivelse og bedre ydeevne i spil og grafikapplikationer. Vis fuld
48
max 256
Gennemsnit: 56.8
96
max 256
Gennemsnit: 56.8
Antal skyggeblokke
Antallet af shader-enheder i videokort refererer til antallet af parallelle processorer, der udfører beregningsoperationer i GPU'en. Jo flere shader-enheder i videokortet, jo flere computerressourcer er tilgængelige til behandling af grafikopgaver. Vis fuld
2880
max 17408
Gennemsnit:
3072
max 17408
Gennemsnit:
L2 cache størrelse
Bruges til midlertidigt at gemme data og instruktioner, der bruges af grafikkortet, når der udføres grafikberegninger. En større L2-cache gør det muligt for grafikkortet at gemme flere data og instruktioner, hvilket hjælper med at fremskynde behandlingen af grafikoperationer. Vis fuld
1536
3000
Turbo GPU
Hvis hastigheden på GPU'en er faldet til under grænsen, kan den gå til en høj clockhastighed for at forbedre ydeevnen.
876 MHz
max 2903
Gennemsnit: 1514 MHz
1089 MHz
max 2903
Gennemsnit: 1514 MHz
Tekstur størrelse
Et vist antal teksturerede pixels vises på skærmen hvert sekund.
426 GTexels/s
max 756.8
Gennemsnit: 145.4 GTexels/s
192 GTexels/s
max 756.8
Gennemsnit: 145.4 GTexels/s
arkitektur navn
Kepler
Maxwell 2.0
GPU navn
GK110B
GM200
Hukommelse
Hukommelses båndbredde
Dette er den hastighed, hvormed enheden gemmer eller læser information.
336 GB/s
max 2656
Gennemsnit: 257.8 GB/s
337 GB/s
max 2656
Gennemsnit: 257.8 GB/s
Effektiv hukommelseshastighed
Den effektive hukommelses takthastighed beregnes ud fra størrelsen og informationsoverførselshastigheden af hukommelsen. Enhedens ydeevne i applikationer afhænger af clockfrekvensen. Jo højere den er, jo bedre. Vis fuld
7000 MHz
max 19500
Gennemsnit: 6984.5 MHz
7012 MHz
max 19500
Gennemsnit: 6984.5 MHz
vædder
RAM i grafikkort (også kendt som videohukommelse eller VRAM) er en speciel type hukommelse, der bruges af et grafikkort til at gemme grafikdata. Den fungerer som en midlertidig buffer for teksturer, shaders, geometri og andre grafikressourcer, der er nødvendige for at vise billeder på skærmen. Mere RAM gør det muligt for grafikkortet at arbejde med flere data og håndtere mere komplekse grafiske scener med høj opløsning og detaljer. Vis fuld
6 GB
max 128
Gennemsnit: 4.6 GB
12 GB
max 128
Gennemsnit: 4.6 GB
Versioner af GDDR-hukommelse
De nyeste versioner af GDDR-hukommelse giver høje dataoverførselshastigheder for bedre generel ydeevne.
5
max 6
Gennemsnit: 4.9
5
max 6
Gennemsnit: 4.9
Memory bus bredde
En bred hukommelsesbus betyder, at den kan overføre mere information i én cyklus. Denne egenskab påvirker ydeevnen af hukommelsen såvel som den generelle ydeevne af enhedens grafikkort. Vis fuld
384 bit
max 8192
Gennemsnit: 283.9 bit
384 bit
max 8192
Gennemsnit: 283.9 bit
Generel information
Krystal størrelse
De fysiske dimensioner af chippen, hvorpå transistorerne, mikrokredsløbene og andre komponenter, der er nødvendige for driften af videokortet, er placeret. Jo større matricestørrelsen er, jo mere plads fylder GPU'en på grafikkortet. Større matricestørrelser kan give flere computerressourcer, såsom CUDA-kerner eller tensorkerner, hvilket kan føre til øget ydeevne og grafikbehandlingskapacitet. Vis fuld
561
max 826
Gennemsnit: 356.7
max 826
Gennemsnit: 356.7
Længde
266
max 524
Gennemsnit: 250.2
max 524
Gennemsnit: 250.2
Generation
En ny generation af grafikkort inkluderer normalt forbedret arkitektur, højere ydeevne, mere effektiv brug af strøm, forbedrede grafikmuligheder og nye funktioner. Vis fuld
GeForce 700
GeForce 900
Fabrikant
TSMC
TSMC
Strømforsyning strøm
Når du vælger en strømforsyning til et videokort, skal du tage højde for strømkravene fra videokortproducenten samt andre computerkomponenter.
750
max 1300
Gennemsnit:
max 1300
Gennemsnit:
Udgivelsesår
2014
max 2023
Gennemsnit:
max 2023
Gennemsnit:
Varmeafledning (TDP)
Varmeafledningskravet (TDP) er den maksimale mængde energi, der kan afgives af kølesystemet. Jo lavere TDP, jo mindre strøm forbruges.
375 W
Gennemsnit: 160 W
250 W
Gennemsnit: 160 W
Teknologisk proces
Den lille størrelse af halvledere betyder, at dette er en ny generations chip.
28 nm
Gennemsnit: 34.7 nm
28 nm
Gennemsnit: 34.7 nm
Antal transistorer
Jo højere deres antal, jo mere processorkraft indikerer dette.
7080 million
max 80000
Gennemsnit: 7150 million
8000 million
max 80000
Gennemsnit: 7150 million
PCIe version
Der medfølger en betydelig hastighed på udvidelseskortet, der bruges til at forbinde computeren med eksterne enheder. De opdaterede versioner har en imponerende gennemstrømning og giver høj ydeevne. Vis fuld
3
max 4
Gennemsnit: 3
3
max 4
Gennemsnit: 3
Bredde
109 mm
max 421.7
Gennemsnit: 192.1 mm
267 mm
max 421.7
Gennemsnit: 192.1 mm
Højde
62 mm
max 620
Gennemsnit: 89.6 mm
111 mm
max 620
Gennemsnit: 89.6 mm
Formål
Desktop
Desktop
Pris på udgivelsestidspunktet
2999 $
max 419999
Gennemsnit: 5679.5 $
$
max 419999
Gennemsnit: 5679.5 $
Funktioner
OpenGL version
OpenGL giver adgang til grafikkortets hardwarefunktioner til visning af 2D- og 3D-grafikobjekter. Nye versioner af OpenGL kan omfatte understøttelse af nye grafiske effekter, ydeevneoptimeringer, fejlrettelser og andre forbedringer. Vis fuld
4.6
max 4.6
Gennemsnit:
4.4
max 4.6
Gennemsnit:
DirectX
Bruges i krævende spil, hvilket giver forbedret grafik
11.1
max 12.2
Gennemsnit: 11.4
12.1
max 12.2
Gennemsnit: 11.4
Shader model version
Jo højere versionen af shader-modellen er i videokortet, jo flere funktioner og muligheder er tilgængelige for programmering af grafiske effekter.
5.1
max 6.7
Gennemsnit: 5.9
6.4
max 6.7
Gennemsnit: 5.9
Vulkan version
En højere version af Vulkan betyder normalt et større sæt funktioner, optimeringer og forbedringer, som softwareudviklere kan bruge til at skabe bedre og mere realistiske grafiske applikationer og spil. Vis fuld
1.2
max 1.3
Gennemsnit:
1.3
max 1.3
Gennemsnit:
CUDA version
Giver dig mulighed for at bruge computerkernerne på dit grafikkort til at udføre parallel computing, hvilket kan være nyttigt inden for områder som videnskabelig forskning, deep learning, billedbehandling og andre beregningsintensive opgaver. Vis fuld
3.5
max 9
Gennemsnit:
6.1
max 9
Gennemsnit:
Tests i benchmarks
Passmark score
Passmark Video Card Test er et program til måling og sammenligning af et grafiksystems ydeevne. Det udfører forskellige tests og beregninger for at evaluere hastigheden og ydeevnen af et grafikkort på forskellige områder. Vis fuld
9048
max 30117
Gennemsnit: 7628.6
12840
max 30117
Gennemsnit: 7628.6
3DMark Fire Strike Graphics testresultat
Den måler og sammenligner et grafikkorts evne til at håndtere højopløselig 3D-grafik med forskellige grafiske effekter. Fire Strike Graphics-testen inkluderer komplekse scener, lys, skygger, partikler, refleksioner og andre grafiske effekter for at evaluere grafikkortets ydeevne i spil og andre krævende grafikscenarier. Vis fuld
16972
max 51062
Gennemsnit: 11859.1
max 51062
Gennemsnit: 11859.1
Havne
Har HDMI udgang
Tilstedeværelsen af en HDMI-udgang giver dig mulighed for at tilslutte enheder med HDMI- eller mini-HDMI-porte. De kan overføre video og lyd til skærmen. Vis fuld
Ja
Ja
HDMI version
Den seneste version giver en bred signaltransmissionskanal på grund af det øgede antal lydkanaler, billeder per sekund osv.
1.4
max 2.1
Gennemsnit: 1.9
max 2.1
Gennemsnit: 1.9
display port
Giver dig mulighed for at oprette forbindelse til en skærm ved hjælp af DisplayPort
1
max 4
Gennemsnit: 2.2
3
max 4
Gennemsnit: 2.2
DVI udgange
Giver dig mulighed for at oprette forbindelse til en skærm ved hjælp af DVI
2
max 3
Gennemsnit: 1.4
1
max 3
Gennemsnit: 1.4
Antal HDMI-stik
Jo flere enheder de har, jo flere enheder kan tilsluttes på samme tid (f.eks. konsoller af typen spil/tv)
1
max 3
Gennemsnit: 1.1
max 3
Gennemsnit: 1.1
Interface
PCIe 3.0 x16
PCIe 3.0 x16
HDMI
En digital grænseflade, der bruges til at transmittere lyd- og videosignaler i høj opløsning.
Ja
Ja

FAQ

Hvordan klarer NVIDIA GeForce GTX TITAN Z-processoren sig i benchmarks?

Adgangsmærke NVIDIA GeForce GTX TITAN Z opnåede 9048 point. Det andet videokort fik 12840 point i Passmark.95 TFLOPS. Men det andet videokort har FLOPS svarende til 5.83 TFLOPS.

Hvor hurtige er NVIDIA GeForce GTX TITAN Z og Zotac GeForce GTX Titan X?

NVIDIA GeForce GTX TITAN Z fungerer ved 705 MHz. I dette tilfælde når den maksimale frekvens op på 876 MHz. Urbasefrekvensen for Zotac GeForce GTX Titan X når op på 1000 MHz. I turbotilstand når den 1089 MHz.

Hvilken slags hukommelse har grafikkort?

NVIDIA GeForce GTX TITAN Z understøtter GDDR5. Installeret 6 GB RAM. Gennemstrømningen når op på 336 GB/s. Zotac GeForce GTX Titan X fungerer med GDDR5. Den anden har 12 GB RAM installeret. Dens båndbredde er 336 GB/s.

Hvor mange HDMI-stik har de?

NVIDIA GeForce GTX TITAN Z har 1 HDMI-udgange. Zotac GeForce GTX Titan X er udstyret med Ingen data HDMI-udgange.

Hvilke strømstik bruges?

NVIDIA GeForce GTX TITAN Z bruger Ingen data. Zotac GeForce GTX Titan X er udstyret med Ingen data HDMI-udgange.

Hvilken arkitektur er videokort baseret på?

NVIDIA GeForce GTX TITAN Z er bygget på Kepler. Zotac GeForce GTX Titan X bruger Maxwell 2.0-arkitekturen.

Hvilken grafikprocessor bruges?

NVIDIA GeForce GTX TITAN Z er udstyret med GK110B.

Hvor mange PCIe-baner

Det første grafikkort har 16 PCIe-baner. Og PCIe-versionen er 3. Zotac GeForce GTX Titan X 16 PCIe-baner. PCIe-version 3.

Hvor mange transistorer?

NVIDIA GeForce GTX TITAN Z har 7080 millioner transistorer. Zotac GeForce GTX Titan X har 8000 millioner transistorer