JC_Denton

Οι καινούριες GeForce GTX 260 με τους περισσότερους Shaders, μέσα στο Σεπτέμβρη

Recommended Posts

[WRAPLEFT]http://www.hwbox.gr/images/imagehosting/547c42b46ba739.jpg[/WRAPLEFT]Αρκετοί ήδη ξέρουν ότι η nVIDIA θα βγάλει στην αγορά μια νέα έκδοση των GeForce GTX 260 έτσι ώστε να χτυπήσει την AMD και την Radeon HD 4870 της.

Τα σχέδια λοιπόν της εταιρείας είναι σχετικά απλά - δε θα μεταβεί στους πυρήνες των 55nm ακόμα, αλλά θα δώσει περισσότερους Shaders στην κάρτα, αυξάνοντας το νούμερό τους από 192 σε 216. Έτσι η κάρτα γραφικών που θα βγει στις αγορές το Σεπτέμβρη είναι σχεδόν βέβαιο ότι θα ξεπεράσει τη 4870 σε επιδόσεις. Τιμή βέβαια μην περιμένετε να δείτε την ίδια, μιας και ακούγεται ότι οι νέες κάρτες θα τιμολογηθούν 50 δολάρια παραπάνω από τις παλιές.

Άσχημα τα νέα για την AMD και τους κατόχους 4870, ίσως να σκεφτούν πολλοί. Αυτό που πιστεύουμε εμείς είναι ότι μάλλον η nVIDIA παίζει με τους κατόχους των παλιών GTX 260...

Link to comment
Share on other sites

Η κοροϊδία είναι στο ότι όχι μόνο η GTX 260 μέσα σε 3 μήνες έχει πέσει στο μισό της τιμής της (έξω κοντεύει να πέσει κάτω από τα 200?), αλλά και τώρα σου πετάνε και την αναβαθμισμένη...

Και πες ότι έχεις step-up και τέτοια - οκ, είσαι τυχερός. Οι εταιρείες όμως ζημιώνονται...

Δε φτάνει που η nVIDIA πληρώνει ακόμα αποζημιώσεις για τις κάρτες που χαλάγανε (και δεν ήταν μόνο στα notebook, έχει πάει μακριά πολύ το θέμα), θα έχει και αυτά να πληρώνει τώρα?

Τέσπα, θυμάμαι έλεγες για μέσα στο Σεπτέμβρη για κάποια "4870Χ2 killer", εν τέλει θα βγει τπτ τέτοιο? Μιλάμε για GTX 280 στα 55nm ή για κάτι άλλο?

Link to comment
Share on other sites

Εντάξει έπεσαν γρήγορα οι τιμές, αλλά δεν ήτανε ακριβώς επιλογή της nVIDIA.

Απλά αυτή την φορά σκοτίστηκε η AMD και έβγαλε μια κάρτα αξιώσεων κόντρα στην nVIDIA.

Αν το πάμε σε φάσεις αποθυμένων ας γυρίσουμε λίγο πίσω στην εποχή που βγάζει η nVIDIA την τότε κορυφαία GeForce 4 Ti4600 και ένα μήνα μετά σκάει η ATi με την Radeon 9700PRO και την παίρνει σύριζα την nVIDIA.

Τότε η nVIDIA δεν έριξε τις τιμές σχεδόν καθόλου, και "τίμησε" την αγορά του πελάτη.

Ήταν καλύτερα ?

Άλλωστε αυτή η φάση "Γιατί η κάρτα που πήρα έπεσε η τιμή της πολύ" μου θυμίζει φάση "Πήγα και πήρα την Ferrari Enzo και μετά από 2 μήνες μας βγάζει η Ferrari την FXX".

Ιδιαίτερα στον χώρο της πληροφορικής γίνεται τόσα χρόνια, δεν είναι η πρώτη φορά που βγάζουνε νέες κάρτες κάθε 3μιση - 4 μήνες.

Άλλωστε τι έχει σημασία ? Να ευχαριστιέσαι την κάρτα που πήρες που παίζει όλα τα παιχνίδια σου τέλεια ή να κοιτάς τις τιμές και να λες γιατί έπεσε ? Τώρα δεν θα μπορώ να πω στον Μάκη ότι έχω πιο ακριβή κάρτα...

Για την "αντιμέτωπο" της 4870X2 οι πληροφορίες μου ακόμα λένε πως θα βγεί κάπου εδώ μέχρι τα μέσα του Σεπτέμβρη.

Θέλω να πιστεύω πως είναι σωστές και δεν άλλαξε κάτι, γιατί το παλικάρι συνεχίζει να μου λέει ότι ναι είναι στο πρόγραμμα.

Από την άλλη δεν παίρνω και όρκο, γιατί από την πρώτη στιγμή που βγάλανε την GTX 280 ψάχνονταν πως να φέρουνε τα clocks των Shaders σε normal επίπεδα ( 1600+ MHz @ stock ).

Link to comment
Share on other sites

Οχι βρε bill...Γιατι δεν παει σε 55nm?

Κοροιδεια δεν ειναι αυτο που εκανε με τις 9800GT ? να υποσχεται 55nm core και στην πραγματικοτητα να ειναι 65nm core ? μονο και μονο επειδη ειχαν αποθεμα ? και να σε κοροιδευει η nV ?

Τι θα κερδισει με το να κανει μια GTX 260''+'' ? με περισσοτερα shader's ? οταν η αντιπαλη AMD/Ati εχει παει σε νεες τεχνολογιες 55nm/GDDR5 ?

Και αυτη ειναι retarded με 65nm ?

Μας δουλευουν ? Εμενα η nV απο τρομερη εταιρια που ηταν στα ματια μου επεσε σαν καρπουζι που πεφτει απο τον 6ο οροφο...;P..

Α! και δεν προκειται να ειναι στα 240 ευρω (Ελλαδας) αυτη η νεα gtx...σιγουρα θα εχει ενα 20ρικο παραπανω...

Link to comment
Share on other sites

Παιδιά το ζήτημα είναι απλό. Η nvidia έχει κολλήσει στα 65nm και σε DDR3 μνήμες ενώ η ΑΤΙ την ξεπέρασε.

Εμείς σαν καταναλωτές πρέπει να κοιτάμε τι μας συμφέρει. Τόσα χρόνια μόνο nvidia κάρτες είχα (από τότε που βγήκαν τουλάχιστον γιατί πιο πριν είχα 3dfx). Σήμερα πήρα την ΑΤΙ γιατί αυτή με σύμφερε και οικονομικά και από επιδόσεις.

Αν όταν χρειαστώ νέα κάρτα η καλύτερη θα είναι nvidia τότε θα πάω σε nvidia πάλι.

Δεν έχει νόημα να κολλάμε σε έναν κατασκευαστή. Ούτε λεφτά παίρνουμε απο αυτόν (του τα δίνουμε μάλιστα) ούτε θα πεθάνουμε αν κλείσει.

Link to comment
Share on other sites

Eξ'άλλου,fanboys deserve to die :)...

Η Nvidia έφαγε χοντρή ήττα και δεν ξέρουν πως να τα μπαλώσουν.H Ati καινοτομεί και η Nvidia κάνει προσθέσεις κι αφαιρέσεις.

Προσωπικά με βλέπω να περιμένω τον "little dragon".. ;P..

Link to comment
Share on other sites

Οχι βρε bill...Γιατι δεν παει σε 55nm?

Κάποιο θέμα υπάρχει.

Επίσης δεν είναι όσο εύκολο ακούγεται να "μεταφέρεις" ένα τεράστιο μονολιθικό πυρήνα σε μικρότερο process.

Κοροιδεια δεν ειναι αυτο που εκανε με τις 9800GT ? να υποσχεται 55nm core και στην πραγματικοτητα να ειναι 65nm core ?

Κοροϊδία αυτό, αν και δεν είχανε πεί ότι όλες θα είναι 55nm, οπότε υπάρχει η "κερκόπορτα/δικαιολογία" κατά τρόπο τινά.

Παρόλα ταύτα επειδή κάνανε πατάτα κρατόντας τις "νεότερες" κάρτες με το ίδιο νούμερο σειράς ( 8 ) έπειτα από ενάμιση έτος, και για να μην φαίνεται παρωπλισμένη στους άσχετους λόγω ότι υπάρχουνε και οι σειρές GTX2xx και οι 9xxx αναγκαστικά ( πάλι κατά τρόπο τινά ) έπρεπε να μεταφέρουνε κάποιες στην 9.

Τι θα κερδισει με το να κανει μια GTX 260''+'' ? με περισσοτερα shader's ? οταν η αντιπαλη AMD/Ati εχει παει σε νεες τεχνολογιες 55nm/GDDR5 ?

Το ότι η AMD έχει GDDR5 στις κάρτες της δεν δίνει κανένα κέρδος σε εσένα.

Οι GDDR5 είναι πιο ζεστές από τις GDDR3 και τα τωρινά τουλάχιστον ICs καταναλώνουνε και περισσότερο ρεύμα από τις καλές GDDR3.

Όσον αφορά θέμα απόδοσης στα games λόγω της GDDR5 δεν υπάρχει γιατί πολύ απλά το latency και το memory bandwidth ( στις VGA παίζει πολύ περισσότερο ρόλο το bandwidth του framebuffer παρά το latency, που παίζει σχεδόν μηδενικό ρόλο ) είναι τα ίδια διότι από την μια στην GDDR3 η nVIDIA αυξάνει το εύρος διαύλου ενώ η AMD κρατάει μικρότερο εύρος διαύλου και εκμεταλλεύεται τις συχνότητες των GDDR5 για να το αντισταθμίσει.

Στα νούμερα πάντως αν το θες να το θέσουμε έτσι, η nVIDIA έχει κάμποσο μεγαλύτερο bandwidth.

Τα 55nm δεν σου δίνουν τίποτα πέραν των λίγο καλύτερων θερμοκρασιών και ίσως και χαμηλότερης λειτουργικής τάσης ( οπότε χαμηλώνει και λίγο η κατανάλωση ενέργειας ), όλα αυτά φυσικά στο ίδιο ακριβώς πυρήνα.

Δεν μπορείς να πείς αναλογικά αφού με την RV770 από τα τάδε nm στα τάδε πήραμε αυτά και τόσο έπεσε η temp θα πέσει ανάλογα και στον G92.

Ούτε φυσικά να πείς ότι η HD4870 επειδή είναι στα 55nm θα είναι πιο κρύα από την GT200 που είναι στα 65nm.

Και αυτη ειναι retarded με 65nm ?

Εξήγησα παραπάνω.

Αν σου πούλαγε προϊόν κατώτερων επιδόσεων και με λιγότερη αξιοπιστία λόγω "παραχωρήσεων" που θα έπρεπε να κάνει δεν θα ήτανε retarded ?

Give or take, στο τέλος μετράνε οι επιδόσεις που έχεις στα games σου.

Στα π@π@ρια σου αν είναι στα 80nm ή 32nm man. process.

Παιδιά το ζήτημα είναι απλό. Η nvidia έχει κολλήσει στα 65nm και σε DDR3 μνήμες ενώ η ΑΤΙ την ξεπέρασε.

Διάβασε αυτά που έγραψα από πάνω.

Αν θες τα αναλύουμε ακόμα πιο τεχνικά ;)

υ.γ. Δεν είμαι ούτε ο υπασπιστής της nVIDIA ούτε ο τυπάς που καταριέται την AMD λες και του έφαγε την γκόμενα.

Δεν κολλάω σε εταιρίες και ονόματα, η αλήθεια να λέγεται, και οι δύο εταιρίες έχουνε κάνει καλές και κακές επιλογές, και φυσικά από την στιγμή που σκοπός τους είναι το κέρδος, το χρήμα, δεν τους είναι και τίποτα να εξαπατούνε και τον κόσμο.

Εταιρίες είναι, όχι φιλανθρωπικά ιδρύματα ( χωρίς αυτό να είναι δικαιολογία έτσι ? :) )

Link to comment
Share on other sites

@billpeppas

Πραγματικά δεν θέλω να το αναλύσουμε τεχνικά και με περίεργους όρους γιατί δεν θα καταλάβω τίποτα. Εγώ κρίνω μια τεχνολογική πρόοδο ως εξής:

Μου δίνει παραπάνω? Στην προκειμένη περίπτωση ναι. Μου δίνει. Και δεν ισχύει μόνο στα computer parts αυτό. Ισχύει και στην δουλειά που κάνω (Μηχανολόγος).

Το ζήτημα εδώ είναι το εξής. Η nvidia βγάζει τώρα μια gtx260 που θα πατάει την 4870. Γιατί δεν την έβγαζε από την αρχή? Δεν λέω, μπορεί και η ΑΤΙ μετά να κάνει το ίδιο, δηλαδή να βγάλει μια 4850 με χρονισμούς στο Θεό που να πατάει την GTX 280. Πάλι το ίδιο θα ισχύει.

Όταν λοιπόν ο μέσος χρήστης πάει να πάρει κάρτα γραφικών και δίνει μέχρι 230-250 ευρώ λέει: Ποιά δίνει περισσότερες επιδόσεις (όχι σε bench τύπου 3d Mark, αλλά frames σε παιχνίδια). Η ΑΤΙ το κάνει. Και αυτό οφείλεται στις καινοτομίες που εισήγαγε. Με όποιο κόστος στην κατανάλωση και θερμοκρασία που λες πιο πάνω και θα συμφωνίσω μαζί σου.

Από την άλλη αν η Nvidia καταφέρει να κάνει αυτό που λέει τότε μαγκιά της από τη μία, αλλά από την άλλη κάποια στιγμή θα πρέπει να συμβαδίσει και με τις νέες μνήμες, και με μικρότερη λιθογραφία. Αλλιώς θα την πατίσει όπως η 3dfx παλιότερα που έβγαζε το ίδιο chip με άλλο όνομα σε κάρτες τέρατα με 4 chip ανά κάρτα και μετασχηματιστή για ρεύμα. (το ίδιο ισχύει για όλες τις εταιρείες)

Γενικά στον χώρο της τεχνολογίας ισχύει το εξής. Innovate or Die.

Link to comment
Share on other sites

Δεν είμαι ούτε ο υπασπιστής της nVIDIA ούτε ο τυπάς που καταριέται την AMD λες και του έφαγε την γκόμενα.

Προσωπικά σε θεωρώ ιδιαίτερα ενημερωμένο, αλλά παράλληλα, fanboy της nVidia...

Link to comment
Share on other sites

@billpeppas

Πραγματικά δεν θέλω να το αναλύσουμε τεχνικά και με περίεργους όρους γιατί δεν θα καταλάβω τίποτα.

Ωραία, αλλά τώρα βγαίνεις και λες το παρακάτω:

Εγώ κρίνω μια τεχνολογική πρόοδο ως εξής:

Μου δίνει παραπάνω? Στην προκειμένη περίπτωση ναι. Μου δίνει.

Και εξηγώ πάλι:

1) Οι GDDR5 δεν έκαναν την HD4850/HD4870/HD4870X2 να έχουν τις επιδόσεις που έχουν τώρα.

2) Με GDDR3 και 512BIT ή έστω 384ΒΙΤ δίαυλο πάλι το ίδιο bandwidth και latency θα είχανε, και θα την βγάζανε και πιο φτηνά ( οι GDDR3 είναι φτηνότερες τουλάχιστον πρός το παρόν από τις GDDR5 ).

3) Δεν θα χρειαζότανε να επανασχεδιάσουνε τον ελεγκτή μνήμης, πράγμα που σημαίνει ένας μήνας πάνω κάτω νωρίτερα tape out και ένας με δύο μήνες νωρίτερα public launch.

4) Οι GDDR5 που αναφέρεσαι ως "πρόοδο της τεχνολογίας" δεν δίνουν σε εσένα ( τον καταναλωτή ) κάτι... αντιθέτως, καίνε περισσότερεο ρεύμα, παράγουν περισσότερη θερμότητα, και σου δίνουνε το ίδιο αποτέλεσμα που θα σου δίνανε και οι GDDR3.

5) Η AMD όπως και η nVIDIA δεν έχουνε δικά τους εργοστάσια, οι ίδιοι σχεδιάζουνε τα chips και αναθέτουν την παραγωγή τους ανά καιρούς σε διάφορα εργοστάσια ( συνήθως στην TSMC που θεωρείται από της κορυφαίες του είδους ).

Η μέθοδος ολοκλήρωσης ( sorry δεν ξέρω πως το μεταφράζουνε ακριβώς στα ελληνικά ) έχει να σου δώσει κάποια πράγματα και έχει και κάποιες δυσκολίες και καμμιά φορά κάποια μειονεκτήματα.

Μιλώντας πάντα για το ίδιο chip ( δηλαδή ένα GT200 @ 65nm και ένα ολόϊδιο GT200 @ 55nm ) θα σου δώσει:

1) Κάτι τις χαμηλότερες θερμοκρασίες

2) Πιθανόν την δυνατότητα να χαμηλώσεις λίγο ( ~0.03V ) την τάση λειτουργίας του πυρήνα.

3) Αν γίνουνε τα δύο από πάνω γλυτώνεις και λίγο στον τομέα της κατανάλωσης ενέργειας.

4) Συνήθως ( εκτός και αν έχεις χαμηλά yields ) σου επιτρέπει να βγάλεις σαν εταιρία περισσότερο κέρδος, αφού από το ίδιο wafer βγάζεις περισσότερους πυρήνες.

Μπορεί να ακούγονται εύκολα και ωραία αλλά κάποιες φορές δεν είναι τόσο ρόδινα και εύκολα τα πράγματα ( ανάλογα με το complexity του design και το μέγεθος ).

Από την στιγμή που η GTX 280 που έχω είτε ήτανε στα 55nm είτε στα 65nm που είναι τώρα, θα είχα τις ίδιες επιδόσεις, τον ίδιο θόρυβο, πάνω κάτω την ίδια κατανάλωση ρεύματος ( +/- 10 - 15W ) και άντε, αν δεν χαμηλώνανε την τάση λειτουργίας ( που σημαίνει ότι η κατανάλωση θα έμενε αμετάλλαχτη ή και θα ανέβαινε ) ίσως να είχαμε και κάτι τις καλύτερο ( ψηλότερο ) overclocking ( με ότι αυτό συνεπάγεται ).

H nVIDIA αυτή την στιγμή χρειάζεται:

Μια κάρτα για να κόψει τις πωλήσεις της HD4870.

Αν μπορεί να τα καταφέρει με το υπάρχον "stock" ακόμα καλύτερα για αυτούς.

Και στην συγκεκριμένη περίπτωση παραβολεύει, γιατί αν σκεφτείς πως στην γραμμή παραγωγής πολλοί πυρήνες δεν βγαίνουνε πλήρως λειτουργικοί, συνήθως έχουνε 1-2 TPC προβληματικά, αντί να καταργούνε και άλλα θα γίνονται GTX270 παραδείγματος χάρη.

Οπότε στο τέλος παίρνει πιο πολλούς λειτουργικούς πυρήνες ανά wafer από ότι πριν που έβγαζε κάμποσους για GTX 280, κάμποσους για GTX 260 και πετούσε ένα πλήθος στον κάδο των αχρήστων.

H δε GTX 280 θα μπορούσε άνετα να γίνει ένα μεγαλύτερο τέρας με λίγες αλλαγές, οι οποίες μάλιστα δεν χρειάζονται και απαραίτητα μετάβαση σε χαμηλότερο manufacturing process ( βεβαίως αν μπορούνε να καταφέρουνε και τις αλλαγές αλλά και να πάνε στα 55nm ακόμα καλύτερα ).

Αν αυξήσουνε την αναλογία των shaders στο 2.5x, με ταυτόχρονη αύξηση του αριθμού των shaders, όπου αναγκαστικά λόγω design θα ανέβουνε και τα ROPs και τα TFUs ακόμα και με τα ίδια clocks να βγει η κάρτα, μόνο με υψηλότερα χρονισμένους τους Stream Processors θα έχουμε να κάνουμε με ένα θηρίο που θα κοντράρει στα ίσα και θα ξεπερνάει επί το πλείστον την HD4870X2.

Το ζήτημα εδώ είναι το εξής. Η nvidia βγάζει τώρα μια gtx260 που θα πατάει την 4870. Γιατί δεν την έβγαζε από την αρχή?

Το πλάνο τους αυτό ήτανε.

Και με την ολιγορία της AMD τα τελευταία δύο χρόνια επαναπαύτηκε και η nVIDIA και δεν περίμενε πως οι νέες Radeon θα ήτανε τόσο καλές, έτσι ξαφνικά είδανε τον "χάρο με τα μάτια" ( μεταφορικά πάντα...ακόμα και να έχανε αμαχητί η nVIDIA αυτόν τον γύρο στις πωλήσεις, πάλι το οικονομικό τους status επαρκεί για να αγοράσουνε την AMD :D ).

Όταν λοιπόν ο μέσος χρήστης πάει να πάρει κάρτα γραφικών και δίνει μέχρι 230-250 ευρώ λέει: Ποιά δίνει περισσότερες επιδόσεις (όχι σε bench τύπου 3d Mark, αλλά frames σε παιχνίδια). Η ΑΤΙ το κάνει. Και αυτό οφείλεται στις καινοτομίες που εισήγαγε.

Εδώ έχουμε τα εξής:

1) Ναι, πρός το παρόν στα 200-250 ευρώ η AMD παίζει μόνη της μπάλα.

Αλλά αν ο χρήστης πει "μπορώ να δώσω και κάτι παραπάνω" στο εξωτερικό ( και κανονικά θα έπρεπε και στην Ελλάδα ) η GTX 280 έχει 290-310 ευρώπουλα αναλόγως τον "κατασκευαστή" ( του αυτοκόλλητου :P ) [ βλέπεις τα αυτοκόλλητα της EVGA είναι ακριβά π.χ. :D ].

2) Ο μέσος χρήστης συνήθως δεν ξέρει καν τι είναι η GDDR5 πότε βγήκε και τι του δίνει, αλλά ούτε ξέρει και στα πόσα nm είναι η κάθε κάρτα, και ούτε καταλαβαίνει τι είναι.

Και φυσικά αυτά τα δύο δεν είναι οι υπεύθυνοι των επιδόσεων της κάρτας.

Δεν είναι έτσι τα πράγματα. Δεν πήρε η AMD τον προηγούμενο πυρήνα τον έφτιαξε στα 55nm έβαλε και GDDR5 αντί GDDR3/GDDR4 και μαγικώς βγήκε αυτή η τρομερή και δυνατή κάρτα.

Για να μην πολυλογούμε η AMD στις HD4xxx έφτιαξε διότι:

1) Άλλαξε το ring bus σε ένα νέο design με κεντρικό hub που τους δίνει λιγότερο latency μεταξύ των διαφόρων "components" του πυρήνα

2) Αύξησε την data cache που είχε διαθέσιμο το κάθε "cluster"

3) Έφτιαξε ( για τα pure MSAA modes ) το προβληματικό ( μη λειτουργικό στους προηγούμενους πυρήνες ) hardware AA resolve, και επιτέλους ήρθανε οι επιδόσεις με Anti-Aliasing στα ίσα τους μιας και πλέον τρέχουνε στα ROPs και όχι στους Shaders.

4) Βελτίωσε την αρχιτεκτονική των TFUs & TMUs και το Z-fillrate.

5) Αύξησε το μέγεθος του framebuffer τώρα που χρειάζεται ( παλαιότερα πηγαίνανε στράφι οτιδήποτε βάζανε πάνω από 512MB ).

Και κάμποσες άλλες μικρολεπτομέρειες υπό την έννοια ότι δεν είναι ευρέως γνωστές κλπ ( έκρυψε και κάποιες λεπτομέρειες ταυτόχρονα, δεν ξέρω γιατί ) και που θα περιπλέξουνε την όλη συζήτηση.

Αυτά εν ολίγοις.

από την άλλη κάποια στιγμή θα πρέπει να συμβαδίσει και με τις νέες μνήμες, και με μικρότερη λιθογραφία.

Να συμβαδίσει με τις μνήμες δεν της χρειάζεται ούτε θα κερδίσει κάτι.

Και τώρα η AMD που το έπαιζε έξυπνη και πήγε στις GDDR5 έχει μόνο δυνατότητα να προμηθεύεται ICs από έναν μόνο κατασκευαστή ( οι άλλοι δεν είναι ακόμα σε mass production ) με αποτέλεσμα να μην μπορεί να χτυπήσει καλύτερες και χαμηλότερες τιμές.

Αν στο παρόν design χρησιμοποιούσε η nVIDIA GDDR5 δεν θα κέρδιζε τίποτα, το κάθε άλλο, θα ανέβαινε το κόστος παραγωγής και η τιμή της κάρτας στην αγορά.

Τεχνικά τι θα γινότανε ? Θα είχανε ένα τερατώδες memory bandwidth από το οποίο το 60% θα "καθότανε" ( δεν θα χρησιμοποιούνταν ).

Link to comment
Share on other sites

Προσωπικά σε θεωρώ ιδιαίτερα ενημερωμένο, αλλά παράλληλα, fanboy της nVidia...

Πιο πιθανό θα ήταν να ήμουν fanboy της ATi παρά της nVIDIA.

Αν κάνεις μια αναζητησούλα πίσω στην εποχή της X1950XTX θα καταλάβεις τι εννοώ ( βεβαίως τότε δεν μιλάγαμε για επιχειρηματολογία του αέρα, αφού όντως η ATi είχε καλύτερη ποιότητα εικόνας και ήτανε σαφώς πιο γρήγορη με AA & AF ενεργοποιημένα ) [ η nVIDIA έπαιρνε τα σκήπτρα μόνο σε "pure performance" δηλαδή αναλύσεις δίχως φίλτρα ( AA/AF ) ].

Δεν με νοιάζει τι γράφει το κουτί, τι όνομα έχει η κάρτα και ο κατασκευαστής.

Εγω θέλω κάποια συγκεκριμένα πράγματα από κάθε κάρτα που αγοράζω.

Όταν έπαιζα παιχνίδια ( δηλαδή την εποχή των GeForce 256 μέχρι την Radeon X1900XTX ) έπαιρνα πάντα την κάρτα που μου έδινε καλύτερες επιδόσεις συνδυασμένες με καλύτερο image quality.

Σαφώς ακόμα και τότε ήμουν καταναλωτικό όργιο ( βλέπε π.χ. αγοράζω την νεόφερτη GeForce 4 Ti4600 σαν κορυφαία όταν εμφανήστικε και σε ένα μήνα βγαίνει η Radeon 9700 PRO αν θυμάμαι καλά και επειδή ήτανε καλύτερη ( βασικά ήτανε αρκετά καλύτερη :D ) την παίρνω επιτόπου :loveliness:.. ).

Όπως εύκολα μπορεί κανείς να διαπιστώσει, πήγαινα από το ένα flagship προϊόν στο άλλο, από ATi σε nVIDIA και το αντίθετο.

Και οι δύο εταιρίες έχουνε κάνει πατάτες μεγάλες ( βλέπε nVIDIA GeForce FX series ) η ATi ιδιαιτέρως με την HD2900, κλπ κλπ.

Καλό είναι οι ρόλοι να εναλάσσονται ( χωρίς υποχρεωτικά η μια εταιρία να κάνει πατατιά... ).

Πάντως να μιλάμε για fanboyισμό πρός την nVIDIA δεν θα το λέγα... fanboyισμό στα έξοδα και το benching ναι... τυχαίο είναι ότι τα τελευταία 3 χρόνια πέρνω τις top κάρτες και των δύο εταιριών ταυτόχρονα ? ( τι σου κάνει αυτός ο εθισμός με το hardware :P )

Link to comment
Share on other sites

Εγώ κρίνω μια τεχνολογική πρόοδο ως εξής:

Μου δίνει παραπάνω? Στην προκειμένη περίπτωση ναι. Μου δίνει.

Με τη φράση αυτή εννοούσα το εξής. Ότι δεν ξέρω τι μπορεί να είναι πχ το memory bandwidth αλλά αν μου δίνει παραπάνω τότε οκ.

Ένα αλλο παράδειγμα: Στα χαρτία (και μόνο στα χαρτιά) η αρχιτεκτονική των AMD cpu έχει αρκετές καινοτομίες. Στην πράξη όμως από τις CPU της Intel (στις κατηγορίες που υπάρχουν cpu και από τις δύο εταιρείες) είναι πίσω.

Αυτό θέλω να πω.

Εννοείται ότι ο μέσος χρήστης μπορεί να μην ξέρει τι είναι ο τύπος μνήμης ή η λιθογραφία, αλλά πιστεύω ότι αυτό είναι που δίνει τις παραπάνω επιδόσεις. Ναί έγιναν βελτιώσεις στον πυρήνα των ΑΤΙ αλλά δεν είναι κάτι το εντελώς νέο. Βασίστικαν στον προηγούμενο, ο οποίος έχανε από τον G92 της nvidia.

Τα σημεία που έφτιαξε η ΑΤΙ που λες δεν τα καταλαβαίνω πραγματικά (μου φαίνονται άλλη γλώσσα από αυτές που ξέρω).

Link to comment
Share on other sites

Εγώ κρίνω μια τεχνολογική πρόοδο ως εξής:

Μου δίνει παραπάνω? Στην προκειμένη περίπτωση ναι. Μου δίνει.

Κάτσε γιατί θα με τρελλάνεις τώρα.

Τι σου δώσανε τα 55nm και οι GDDR5 ?

Γιατί πριν λίγο αναλύσαμε το τι δίνουν και αν δίνουν, και οι επιδόσεις της κάρτας στα games και τα benchmarks δεν προέρχονται από αυτά.

Ότι δεν ξέρω τι μπορεί να είναι πχ το memory bandwidth αλλά αν μου δίνει παραπάνω τότε οκ.

Επειδή αν δεν ξέρεις καν τι είναι δεν μπορείς να κρίνεις αν σου δίνει επιδόσεις, ρωτάς :).

Το Memory Bandwidth είναι όσο πιο απλά μπορώ να το πω στα ελληνικά ο μέγιστος ρυθμός διαμεταγωγής δεδομένων της μνήμης RAM ( VRAM aka framebuffer ) που έχει η κάρτα γραφικών.

Για να γίνει πιο κατανοητό είναι ας πούμε χονδρικά "η ταχύτητα της μνήμης της κάρτας γραφικών".

Μονάδα είναι το bit, καθώς και τα πολλαπλάσια του (?) [ μου διαφεύγει ο σωστός όρος... ] τα bytes, kilobytes, megabytes, κλπ.

Αν π.χ. η GeForce GTX 280 λέμε ότι έχει 140.8Gbps memory bandwidth σημαίνει ότι σε ένα second η μέγιστη θεωρητική ταχύτητα μετάδοσης ( read or write ) των δεδομένων είναι 140.8Gigabits per second ( 17.6GigaBytes per second για να στο φέρω σε γνωστό μέγεθος ).

Το max theoritical Memory Bandwidth καθορίζεται από δύο πράγματα, από το εύρος του δίαυλου ( BUS Width ) που μετριέται σε bits και την effective συχνότητα λειτουργίας των μνημών.

Η formula είναι:

Memory Bandwidth = BUS Width x Effective Memory Frequency

Με τις μονάδες τους:

Memory Bandwidth ( σε Gigabits/s ) = BUS Width ( σε bytes ) x Effective Memory Frequency ( σε MHz )

Τώρα γιατί σου λέω εγω ότι οι GDDR3 σου δίνουν ακριβώς ότι σου δίνουν και οι GDDR5 ? Να γιατί:

η nVIDIA στις GeForce GTX 280 έχει εύρος δίαυλου 512bit και μνήμες με effective frequency στα 2200MHz, οπότε χρησιμοποιόντας την formula έχουμε:

Τα στοιχεία μας:

BUS Width = 512bits ( 512bits / 8 = 64bytes )

Effective Memory Frequency = GDDR3-2200 ( 2200MHz )

Άρα:

Memory Bandwidth = 64 x 2200 => Memory Bandwidth = 140800Gigabits/s

140800Gigabits = 17.6Gigabytes/s.

Η AMD χρησιμοποιεί μικρότερο εύρος διαύλου ( 256bits ) αλλά υψηλότερα χρονισμένες μνήμες στην HD4870 ( GDDR5-3600 ) [ ενώ στην HD4850 χρησιμοποιεί GDDR3...oops, τι έγινε καλέ ? Και η AMD έμεινε πίσω στην τεχνολογία όπως λές ? :D ] { τα πάντα μπορεί να σου γυρίσουνε boomerang you know :'(.... )

Οπότε για την AMD HD4870 έχουμε:

BUS Width = 256bits ( 32bytes )

Effective Memory Frequency = GDDR5-3600 ( 3600MHz )

Memory Bandwidth = 32 x 3600 => Memory Bandwidth = 115200Gigabits/s

115200Gigabits/s = 14.06Gigabyte/s

Αν τώρα δούμε και την HD4850 έχουμε:

BUS Width = 256bits ( 32bytes )

Effective Memory Frequency = GDDR3-1986 ( 1986MHz )

Memory Bandwidth = 32 x 1986 => Memory Bandwidth = 63552Gigabits/s

63552Gigabits/s = 7.75Gigabyte/s

Το όλο θέμα όμως είναι αλλού... το Memory Bandwidth μας χρειάζεται σε μεγάλες αναλύσεις με φίλτρα ανοιχτά ( Anti-Aliasing & Anisotropic Filtering ) και φυσικά για να αξιοποιηθεί πρέπει να υπάρχει η κατάλληλη δυνατή υποδομή ( δυνατά ROPs, πολλά TFUs και αρκετά TMUs ).

Από τα 140.8Gigabits/s της η GeForce GTX 280 ζήτημα να αξιοποιεί τα 100Gigabits/s σε πολύ συγκεκριμένες περιπτώσεις και φυσικά σε αναλύσεις τρελλές με συνδυασμό υψηλού level AA & AF ( πράγμα που καθιστά τα βαριά σύγχρονα games unplayable σε αυτά τα settings ).

Κατά μέσο όρο αξιοποιεί περί τα 85Gigabits/s αν παίζεις τα παιχνίδια σε Full Details και αναλύσεις πάνω από 1680x1050 με τουλάχιστον 2x Anti-Aliasing και 8x Anisotropic Filtering.

Η ίδια φάση παίζει και στην HD4870...

Ένα αλλο παράδειγμα: Στα χαρτία (και μόνο στα χαρτιά) η αρχιτεκτονική των AMD cpu έχει αρκετές καινοτομίες.

Όχι και τόσες όσες νομίζεις, ούτε όσες μας τάζανε.

Και φυσικά η καινοτομία δεν σημαίνει ούτε επιδόσεις ούτε επιτυχία ( καινοτομία είναι και ο κινητήρας τύπου Rotary, βλέπε Mazda RX-7 και RX-8... που ιδιαίτερα στο RX-7 ενώ έχεις επιδόσεις παρόμειες με έναν κανονικό κινητήρα στα διπλά κυβικά από αυτού του RX-7 έχεις και τα προβλήματα με το κάψιμο του λαδιού... και την μειωμένη διάρκεια ζωής ).

Καινοτομίες αρκετές έχουνε και οι Core 2 και σαφώς και οι Nehalem.

Πιθανότατα αυτά που εσύ θεωρείς καινοτομίες να μην είναι, και να είναι άλλα, αλλά αυτό δεν είναι το θέμα μας.

Link to comment
Share on other sites

Βασίλη δεν διαφωνώ με όσα λες ούτε θέλω να αμφισβητήσω τις γνώσεις σου (δεν είμαι ούτε κάν στο 1% του επιπέδου σου για να κρίνω αν όσα λες είναι σωστά)...Εμένα με πείραξε που σε άκουγα να μιλάς για την GTX280 ότι είναι 25% ταχύτερη από GX2 και άλλα τέτοια ...Όλα αυτά Πριν βγει...Βγαίνει και κάνει πατατιά η nvidia με την τιμή της...Γιατί οι καταναλωτές να χαριστούν και να την δικαιολογήσουν πόσο μάλλον γιατί να την τιμήσουν αγοράζοντας τα προιόντα της;; Δεν ειναι φιλανθρωπικό ίδρυμα ούτε και μεις αφελείς (οι περισσότεροι) Ας της μείνει stock και ας μείνει τεχνολογικά πίσω περιμένοντας να πουλήσει τα Νέα revision, όπως έγινε με το G92 με 10 παραλλαγές αντί να στρωθούν και να βγάλουν κάτι πραγματικά καινούργιο και δυνατό (όπως έκανε με το G80)...Σαν να παραδέχεσαι ότι το χεις χάσει το παιχνίδι για αυτήν την γενιά καρτών... Επίσης αναφέρθηκες ότι μέσα στον Σεπτέμβρη θα βγάλει ταχύτερη κάρτα από την 4870χ2... Δεν φαίνεται κάτι τέτοιο στον ορίζοντα επομένως εχουμε 2 στα 2 άστοχες προβλέψεις....Χανεται η αξιοπιστία των πηγών σου...Δεν θέλω να το παρεις αρνητικά το post μου. Καλοπροαίρετα τα λέω..

Bye the way στο Ελλάντα δεν θα πέσουν οι τιμές ;;;;;;

Link to comment
Share on other sites

Βασίλη δεν διαφωνώ με όσα λες ούτε θέλω να αμφισβητήσω τις γνώσεις σου (δεν είμαι ούτε κάν στο 1% του επιπέδου σου για να κρίνω αν όσα λες είναι σωστά)...

Υπάρχουν αρκετοί τρόποι να τα επιβεβαιώσεις:

1) Ανοίγεις π.χ. το GPU-z και βλέπεις τα νούμερα ;)

2) Κάνεις απλά τεστάκια μόνος σου και βλέπεις τα πράγματα από την πρακτική μεριά ( ίσως εξηγήσω σε άλλο post αργότερα, πρέπει να βάλω Windows και σε ένα PC μιας φίλης σήμερα...grrr )

3) Διαβάζεις "εξειδικευμένα" site που έχουνε διάφορα άρθρα για αρχάριους όπου εξηγούνε αρκετά από αυτά που είπα και τα εμπεδώνεις και ο ίδιος :)

Εμένα με πείραξε που σε άκουγα να μιλάς για την GTX280 ότι είναι 25% ταχύτερη από GX2 και άλλα τέτοια ...Όλα αυτά Πριν βγει...

Μακάρι να έμπαινα στο Performance Lab της nVIDIA ο ίδιος τότε και να σας έλεγα ακριβώς... ότι πληροφορίες μου δώσουνε οι ανθρώποι που ξέρω και ότι βγαίνει και σαν εφικτό έπειτα από φιλτράρισμα ( δεν μπορείς να φανταστείς τι "επιστημονικής φαντασίας νούμερα" έχουνε δώσει επίτηδες στον τύπο ( media ) τα τελευταία 3 χρόνια αμφότερες nVIDIA & AMD/ATi.

Αν πάνε τα clocks εκεί που υπολογίζανε πως θα καταλήγανε θα ήτανε πραγματικότητα αυτό το 25% σε όλες τις περιπτώσεις και όχι όπως τώρα σε συγκεκριμένα παιχνίδια και καταστάσεις.

Πάντως, αν τιθότανε θέμα 9800GX2 vs GTX 280 δεν τίθεται θέμα, GTX 280 all the way.

Δεν έχεις το ενοχλητικό micro-stuttering, ούτε το καλοριφέρ στον πύργο σου, ούτε τις διάφορες ασυμβατότητες με κάποια νέα games όπου δεν παίζει το SLI μέχρι να βγάλει προφίλ η nVIDIA για το game, κλπ.

Επίσης αναφέρθηκες ότι μέσα στον Σεπτέμβρη θα βγάλει ταχύτερη κάρτα από την 4870χ2... Δεν φαίνεται κάτι τέτοιο στον ορίζοντα επομένως εχουμε 2 στα 2 άστοχες προβλέψεις....

Μην βιάζεσαι...

Το ότι γράφει π.χ. το FUDzilla ή το TheInquirer ή το TCMagazine ότι δεν, δεν σημαίνει ότι είναι αλήθεια, ούτε ότι το άκουσαν από πηγές τους...ιδιαίτερα δε ο Charlie από το TheInquirer γράφει ότι δει το βράδυ στον ύπνο του :D

Χανεται η αξιοπιστία των πηγών σου...Δεν θέλω να το παρεις αρνητικά το post μου. Καλοπροαίρετα τα λέω..

Οι πηγές μου είναι αρκετές και τουλάχιστον μέχρι εδώ είχανε βγει ολόσωστες ( μπορείς να δείς στο XS.org διάφορα hints που είχα δώσει τα τελευταία 2 έτη και είχανε βγει σωστά ).

Από την άλλη δε, δεν γίνεται να πέφτουνε πάντα μέσα, ούτε να τους εμπιστευόμαστε με τυφλά μάτια... μπορεί πολύ απλά να καταλάβανε ότι ο Τάδε μου δίνει info από την εταιρία και τώρα να του δώσανε και κάποιες λανθασμένες info επίτηδες...

We'll see...

Bye the way στο Ελλάντα δεν θα πέσουν οι τιμές ;;;;;;

Δεν το βλέπω να γίνεται.

Link to comment
Share on other sites

Thanks για το memory bandwidth. Πραγματικά δεν το ήξερα. Τα TMU και TFU που είπες μετά βέβαια με σκότωσαν.

Όσο για τις DDR3 στην 4850. Πιο πιθανό είναι για λόγους κόστους. 133 ευρώ τη βρίσκεις την κάρτα και είναι μια πολύ καλή λύση (αν και πιο κάτω από την 260 αλλά πολύ πιο φτηνή).

Πάντως το ζήτημα παραμένει. Τη στιγμή αυτή η nvidia είναι πίσω και με την τακτική που ακολουθεί εκεί θα παραμείνει μέχρι να βγάλει κάτι πραγαμτικά καινούριο (και όχι G92 με άλλο όνομα).

Ο χρόνος θα δείξει

Ά και κάτι άλλο.

Ο rotary (wankel) δεν βγήκε πρώτα στο RX7. Είχε βγει πολύ πιο πριν.

Link to comment
Share on other sites

Τη στιγμή αυτή η nvidia είναι πίσω και με την τακτική που ακολουθεί εκεί θα παραμείνει μέχρι να βγάλει κάτι πραγματικά καινούριο

Η nVIDIA είναι πίσω στις επιδόσεις από την HD4870X2.

Αν κάνουμε στην άκρη το όποιο micro-stuttering και τα προβλήματα των καρτών με δύο πυρήνες/PCBs+GPUs.

Αν δεν γουστάρουμε τέτοια προβλήματα, και πάμε σε Single GPU κάρτες, η nVIDIA έχει την κορυφή με την GTX 280.

Κάρτα που να ξεπερνάει σε επιδόσεις την HD4870X2 μπορεί να βγάλει δίχως να μεταβεί στα 55nm και χωρίς να χρησιμοποιήσει GDDR5 μνήμες.

Το κάθε τι είναι θέμα επιλογών και αρχιτ. σχεδίασης.

Μπορεί να τραβήξουνε τον GT200 ένα βήμα παραπάνω αλλά λογικά αυτό θα τους καθυστερήσει το launch, μπορεί να χτυπήσουνε στα 55nm με 1-2 disabled clusters και διπλοπύρηνη κάρτα...ακόμα μπορούνε να παίξουνε με G92b enhanced core με αλλαγές στην "σύνθεση" των clusters και να την βγάλουνε με μια double PCB + GPU λύση με αυτούς.

Μπορεί και στο τέλος να μην απαντήσουνε καν τελικά, αφού τα λεφτά δεν βγαίνουνε από τις High End κάρτες, αλλά από τις mainstream.

Ο rotary (wankel) δεν βγήκε πρώτα στο RX7. Είχε βγει πολύ πιο πριν.

Εννοείται, ένα απλό παράδειγμα έφερα.

Απλά η Mazda θεωρείται ως "innovator" εδώ μιας και αυτή έβγαλε σε αμάξι παραγωγής τον Wankel, και αυτή προσπαθεί χρόνια να τον εξελίξει.

Link to comment
Share on other sites

Έχει διορθωθεί σε πολύ μεγάλο βαθμό, αλλά και πάλι υπάρχει. Είχα δει κάτι τεστ στο Episode 2 (η Source είναι πολύ καλή μηχανή για τέτοια τεστ) και είχαν διαπιστώσει πως υπήρχε. Πρέπει να είσαι παρατηρητικός (έως και "ψείρας") για να το δεις στις νέες κάρτες πάντως, δεν είναι όπως με την 3870Χ2 που έκανε ΚΡΑ.

Το ζήτημα, που πάντα ίδιο είναι, είναι τι ανάλυση έχεις. Αν έχεις μέχρι 1920, μια 280 είναι μια χαρά. Στα 2560 που έχω σπίτι, ντάξει, εκεί θες την Χ2 (γι αυτό περιμένω καμιά απάντηση από nV, να δούμε και τον ανταγωνισμό τι λέει) ;)

Link to comment
Share on other sites

Λοιπόν, ξεκινάμε με τα εύκολα σήμερα:

Το HKEPC έκανε μερικά πρώτα τεστ πάνω στις νέες GTX 260:

sshot13sx1.png

sshot1ck1.png

Αρκετοί απογοητεύτηκαν σημαντικά - ελπίζω τουλάχιστον στο κλοκάρισμα να δίνουν περισσότερα οι Shaders....

Πηγή

Link to comment
Share on other sites

Λοιπόν, ξεκινάμε με τα εύκολα σήμερα:

Το HKEPC έκανε μερικά πρώτα τεστ πάνω στις νέες GTX 260:

Αρκετοί απογοητεύτηκαν σημαντικά - ελπίζω τουλάχιστον στο κλοκάρισμα να δίνουν περισσότερα οι Shaders....

Χλωμό το κόβω, μάλλον στο κλοκάρισμα θα βρίσκουν πιο "χαμηλά ταβάνι" με περισσότερους Shaders.
Link to comment
Share on other sites

Κοίτα, εγώ ελπίζω να δίνουν τα ίδια. Αν όντως δίνουν τα ίδια, θα έχουμε καλύτερα νούμερα καθαρά λόγω περισσότερων σε αριθμό Shaders.

Αν τώρα όμως πέσουν τόσο τα MHz, που να εξισώνονται οι περισσότεροι+χαμηλότερα MHz με τους λιγότερους+περισσότερα MHz, τότε τα κάναν σκτ :)...

Αναγκαστικά θα πρέπει να περιμένει κάποιος τις 55nm κάρτες (ή έστω μια 260 GX2 γμτ...)

Link to comment
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now