billpeppas

Members
  • Posts

    4,554
  • Joined

  • Last visited

  • Days Won

    10

Everything posted by billpeppas

  1. Η nVIDIA είναι πίσω στις επιδόσεις από την HD4870X2. Αν κάνουμε στην άκρη το όποιο micro-stuttering και τα προβλήματα των καρτών με δύο πυρήνες/PCBs+GPUs. Αν δεν γουστάρουμε τέτοια προβλήματα, και πάμε σε Single GPU κάρτες, η nVIDIA έχει την κορυφή με την GTX 280. Κάρτα που να ξεπερνάει σε επιδόσεις την HD4870X2 μπορεί να βγάλει δίχως να μεταβεί στα 55nm και χωρίς να χρησιμοποιήσει GDDR5 μνήμες. Το κάθε τι είναι θέμα επιλογών και αρχιτ. σχεδίασης. Μπορεί να τραβήξουνε τον GT200 ένα βήμα παραπάνω αλλά λογικά αυτό θα τους καθυστερήσει το launch, μπορεί να χτυπήσουνε στα 55nm με 1-2 disabled clusters και διπλοπύρηνη κάρτα...ακόμα μπορούνε να παίξουνε με G92b enhanced core με αλλαγές στην "σύνθεση" των clusters και να την βγάλουνε με μια double PCB + GPU λύση με αυτούς. Μπορεί και στο τέλος να μην απαντήσουνε καν τελικά, αφού τα λεφτά δεν βγαίνουνε από τις High End κάρτες, αλλά από τις mainstream. Εννοείται, ένα απλό παράδειγμα έφερα. Απλά η Mazda θεωρείται ως "innovator" εδώ μιας και αυτή έβγαλε σε αμάξι παραγωγής τον Wankel, και αυτή προσπαθεί χρόνια να τον εξελίξει.
  2. Υπάρχουν αρκετοί τρόποι να τα επιβεβαιώσεις: 1) Ανοίγεις π.χ. το GPU-z και βλέπεις τα νούμερα 2) Κάνεις απλά τεστάκια μόνος σου και βλέπεις τα πράγματα από την πρακτική μεριά ( ίσως εξηγήσω σε άλλο post αργότερα, πρέπει να βάλω Windows και σε ένα PC μιας φίλης σήμερα...grrr ) 3) Διαβάζεις "εξειδικευμένα" site που έχουνε διάφορα άρθρα για αρχάριους όπου εξηγούνε αρκετά από αυτά που είπα και τα εμπεδώνεις και ο ίδιος Μακάρι να έμπαινα στο Performance Lab της nVIDIA ο ίδιος τότε και να σας έλεγα ακριβώς... ότι πληροφορίες μου δώσουνε οι ανθρώποι που ξέρω και ότι βγαίνει και σαν εφικτό έπειτα από φιλτράρισμα ( δεν μπορείς να φανταστείς τι "επιστημονικής φαντασίας νούμερα" έχουνε δώσει επίτηδες στον τύπο ( media ) τα τελευταία 3 χρόνια αμφότερες nVIDIA & AMD/ATi. Αν πάνε τα clocks εκεί που υπολογίζανε πως θα καταλήγανε θα ήτανε πραγματικότητα αυτό το 25% σε όλες τις περιπτώσεις και όχι όπως τώρα σε συγκεκριμένα παιχνίδια και καταστάσεις. Πάντως, αν τιθότανε θέμα 9800GX2 vs GTX 280 δεν τίθεται θέμα, GTX 280 all the way. Δεν έχεις το ενοχλητικό micro-stuttering, ούτε το καλοριφέρ στον πύργο σου, ούτε τις διάφορες ασυμβατότητες με κάποια νέα games όπου δεν παίζει το SLI μέχρι να βγάλει προφίλ η nVIDIA για το game, κλπ. Μην βιάζεσαι... Το ότι γράφει π.χ. το FUDzilla ή το TheInquirer ή το TCMagazine ότι δεν, δεν σημαίνει ότι είναι αλήθεια, ούτε ότι το άκουσαν από πηγές τους...ιδιαίτερα δε ο Charlie από το TheInquirer γράφει ότι δει το βράδυ στον ύπνο του Οι πηγές μου είναι αρκετές και τουλάχιστον μέχρι εδώ είχανε βγει ολόσωστες ( μπορείς να δείς στο XS.org διάφορα hints που είχα δώσει τα τελευταία 2 έτη και είχανε βγει σωστά ). Από την άλλη δε, δεν γίνεται να πέφτουνε πάντα μέσα, ούτε να τους εμπιστευόμαστε με τυφλά μάτια... μπορεί πολύ απλά να καταλάβανε ότι ο Τάδε μου δίνει info από την εταιρία και τώρα να του δώσανε και κάποιες λανθασμένες info επίτηδες... We'll see... Δεν το βλέπω να γίνεται.
  3. Κάτσε γιατί θα με τρελλάνεις τώρα. Τι σου δώσανε τα 55nm και οι GDDR5 ? Γιατί πριν λίγο αναλύσαμε το τι δίνουν και αν δίνουν, και οι επιδόσεις της κάρτας στα games και τα benchmarks δεν προέρχονται από αυτά. Επειδή αν δεν ξέρεις καν τι είναι δεν μπορείς να κρίνεις αν σου δίνει επιδόσεις, ρωτάς . Το Memory Bandwidth είναι όσο πιο απλά μπορώ να το πω στα ελληνικά ο μέγιστος ρυθμός διαμεταγωγής δεδομένων της μνήμης RAM ( VRAM aka framebuffer ) που έχει η κάρτα γραφικών. Για να γίνει πιο κατανοητό είναι ας πούμε χονδρικά "η ταχύτητα της μνήμης της κάρτας γραφικών". Μονάδα είναι το bit, καθώς και τα πολλαπλάσια του (?) [ μου διαφεύγει ο σωστός όρος... ] τα bytes, kilobytes, megabytes, κλπ. Αν π.χ. η GeForce GTX 280 λέμε ότι έχει 140.8Gbps memory bandwidth σημαίνει ότι σε ένα second η μέγιστη θεωρητική ταχύτητα μετάδοσης ( read or write ) των δεδομένων είναι 140.8Gigabits per second ( 17.6GigaBytes per second για να στο φέρω σε γνωστό μέγεθος ). Το max theoritical Memory Bandwidth καθορίζεται από δύο πράγματα, από το εύρος του δίαυλου ( BUS Width ) που μετριέται σε bits και την effective συχνότητα λειτουργίας των μνημών. Η formula είναι: Memory Bandwidth = BUS Width x Effective Memory Frequency Με τις μονάδες τους: Memory Bandwidth ( σε Gigabits/s ) = BUS Width ( σε bytes ) x Effective Memory Frequency ( σε MHz ) Τώρα γιατί σου λέω εγω ότι οι GDDR3 σου δίνουν ακριβώς ότι σου δίνουν και οι GDDR5 ? Να γιατί: η nVIDIA στις GeForce GTX 280 έχει εύρος δίαυλου 512bit και μνήμες με effective frequency στα 2200MHz, οπότε χρησιμοποιόντας την formula έχουμε: Τα στοιχεία μας: BUS Width = 512bits ( 512bits / 8 = 64bytes ) Effective Memory Frequency = GDDR3-2200 ( 2200MHz ) Άρα: Memory Bandwidth = 64 x 2200 => Memory Bandwidth = 140800Gigabits/s 140800Gigabits = 17.6Gigabytes/s. Η AMD χρησιμοποιεί μικρότερο εύρος διαύλου ( 256bits ) αλλά υψηλότερα χρονισμένες μνήμες στην HD4870 ( GDDR5-3600 ) [ ενώ στην HD4850 χρησιμοποιεί GDDR3...oops, τι έγινε καλέ ? Και η AMD έμεινε πίσω στην τεχνολογία όπως λές ? ] { τα πάντα μπορεί να σου γυρίσουνε boomerang you know :'(.... ) Οπότε για την AMD HD4870 έχουμε: BUS Width = 256bits ( 32bytes ) Effective Memory Frequency = GDDR5-3600 ( 3600MHz ) Memory Bandwidth = 32 x 3600 => Memory Bandwidth = 115200Gigabits/s 115200Gigabits/s = 14.06Gigabyte/s Αν τώρα δούμε και την HD4850 έχουμε: BUS Width = 256bits ( 32bytes ) Effective Memory Frequency = GDDR3-1986 ( 1986MHz ) Memory Bandwidth = 32 x 1986 => Memory Bandwidth = 63552Gigabits/s 63552Gigabits/s = 7.75Gigabyte/s Το όλο θέμα όμως είναι αλλού... το Memory Bandwidth μας χρειάζεται σε μεγάλες αναλύσεις με φίλτρα ανοιχτά ( Anti-Aliasing & Anisotropic Filtering ) και φυσικά για να αξιοποιηθεί πρέπει να υπάρχει η κατάλληλη δυνατή υποδομή ( δυνατά ROPs, πολλά TFUs και αρκετά TMUs ). Από τα 140.8Gigabits/s της η GeForce GTX 280 ζήτημα να αξιοποιεί τα 100Gigabits/s σε πολύ συγκεκριμένες περιπτώσεις και φυσικά σε αναλύσεις τρελλές με συνδυασμό υψηλού level AA & AF ( πράγμα που καθιστά τα βαριά σύγχρονα games unplayable σε αυτά τα settings ). Κατά μέσο όρο αξιοποιεί περί τα 85Gigabits/s αν παίζεις τα παιχνίδια σε Full Details και αναλύσεις πάνω από 1680x1050 με τουλάχιστον 2x Anti-Aliasing και 8x Anisotropic Filtering. Η ίδια φάση παίζει και στην HD4870... Όχι και τόσες όσες νομίζεις, ούτε όσες μας τάζανε. Και φυσικά η καινοτομία δεν σημαίνει ούτε επιδόσεις ούτε επιτυχία ( καινοτομία είναι και ο κινητήρας τύπου Rotary, βλέπε Mazda RX-7 και RX-8... που ιδιαίτερα στο RX-7 ενώ έχεις επιδόσεις παρόμειες με έναν κανονικό κινητήρα στα διπλά κυβικά από αυτού του RX-7 έχεις και τα προβλήματα με το κάψιμο του λαδιού... και την μειωμένη διάρκεια ζωής ). Καινοτομίες αρκετές έχουνε και οι Core 2 και σαφώς και οι Nehalem. Πιθανότατα αυτά που εσύ θεωρείς καινοτομίες να μην είναι, και να είναι άλλα, αλλά αυτό δεν είναι το θέμα μας.
  4. Πιο πιθανό θα ήταν να ήμουν fanboy της ATi παρά της nVIDIA. Αν κάνεις μια αναζητησούλα πίσω στην εποχή της X1950XTX θα καταλάβεις τι εννοώ ( βεβαίως τότε δεν μιλάγαμε για επιχειρηματολογία του αέρα, αφού όντως η ATi είχε καλύτερη ποιότητα εικόνας και ήτανε σαφώς πιο γρήγορη με AA & AF ενεργοποιημένα ) [ η nVIDIA έπαιρνε τα σκήπτρα μόνο σε "pure performance" δηλαδή αναλύσεις δίχως φίλτρα ( AA/AF ) ]. Δεν με νοιάζει τι γράφει το κουτί, τι όνομα έχει η κάρτα και ο κατασκευαστής. Εγω θέλω κάποια συγκεκριμένα πράγματα από κάθε κάρτα που αγοράζω. Όταν έπαιζα παιχνίδια ( δηλαδή την εποχή των GeForce 256 μέχρι την Radeon X1900XTX ) έπαιρνα πάντα την κάρτα που μου έδινε καλύτερες επιδόσεις συνδυασμένες με καλύτερο image quality. Σαφώς ακόμα και τότε ήμουν καταναλωτικό όργιο ( βλέπε π.χ. αγοράζω την νεόφερτη GeForce 4 Ti4600 σαν κορυφαία όταν εμφανήστικε και σε ένα μήνα βγαίνει η Radeon 9700 PRO αν θυμάμαι καλά και επειδή ήτανε καλύτερη ( βασικά ήτανε αρκετά καλύτερη ) την παίρνω επιτόπου :loveliness:.. ). Όπως εύκολα μπορεί κανείς να διαπιστώσει, πήγαινα από το ένα flagship προϊόν στο άλλο, από ATi σε nVIDIA και το αντίθετο. Και οι δύο εταιρίες έχουνε κάνει πατάτες μεγάλες ( βλέπε nVIDIA GeForce FX series ) η ATi ιδιαιτέρως με την HD2900, κλπ κλπ. Καλό είναι οι ρόλοι να εναλάσσονται ( χωρίς υποχρεωτικά η μια εταιρία να κάνει πατατιά... ). Πάντως να μιλάμε για fanboyισμό πρός την nVIDIA δεν θα το λέγα... fanboyισμό στα έξοδα και το benching ναι... τυχαίο είναι ότι τα τελευταία 3 χρόνια πέρνω τις top κάρτες και των δύο εταιριών ταυτόχρονα ? ( τι σου κάνει αυτός ο εθισμός με το hardware )
  5. Ωραία, αλλά τώρα βγαίνεις και λες το παρακάτω: Και εξηγώ πάλι: 1) Οι GDDR5 δεν έκαναν την HD4850/HD4870/HD4870X2 να έχουν τις επιδόσεις που έχουν τώρα. 2) Με GDDR3 και 512BIT ή έστω 384ΒΙΤ δίαυλο πάλι το ίδιο bandwidth και latency θα είχανε, και θα την βγάζανε και πιο φτηνά ( οι GDDR3 είναι φτηνότερες τουλάχιστον πρός το παρόν από τις GDDR5 ). 3) Δεν θα χρειαζότανε να επανασχεδιάσουνε τον ελεγκτή μνήμης, πράγμα που σημαίνει ένας μήνας πάνω κάτω νωρίτερα tape out και ένας με δύο μήνες νωρίτερα public launch. 4) Οι GDDR5 που αναφέρεσαι ως "πρόοδο της τεχνολογίας" δεν δίνουν σε εσένα ( τον καταναλωτή ) κάτι... αντιθέτως, καίνε περισσότερεο ρεύμα, παράγουν περισσότερη θερμότητα, και σου δίνουνε το ίδιο αποτέλεσμα που θα σου δίνανε και οι GDDR3. 5) Η AMD όπως και η nVIDIA δεν έχουνε δικά τους εργοστάσια, οι ίδιοι σχεδιάζουνε τα chips και αναθέτουν την παραγωγή τους ανά καιρούς σε διάφορα εργοστάσια ( συνήθως στην TSMC που θεωρείται από της κορυφαίες του είδους ). Η μέθοδος ολοκλήρωσης ( sorry δεν ξέρω πως το μεταφράζουνε ακριβώς στα ελληνικά ) έχει να σου δώσει κάποια πράγματα και έχει και κάποιες δυσκολίες και καμμιά φορά κάποια μειονεκτήματα. Μιλώντας πάντα για το ίδιο chip ( δηλαδή ένα GT200 @ 65nm και ένα ολόϊδιο GT200 @ 55nm ) θα σου δώσει: 1) Κάτι τις χαμηλότερες θερμοκρασίες 2) Πιθανόν την δυνατότητα να χαμηλώσεις λίγο ( ~0.03V ) την τάση λειτουργίας του πυρήνα. 3) Αν γίνουνε τα δύο από πάνω γλυτώνεις και λίγο στον τομέα της κατανάλωσης ενέργειας. 4) Συνήθως ( εκτός και αν έχεις χαμηλά yields ) σου επιτρέπει να βγάλεις σαν εταιρία περισσότερο κέρδος, αφού από το ίδιο wafer βγάζεις περισσότερους πυρήνες. Μπορεί να ακούγονται εύκολα και ωραία αλλά κάποιες φορές δεν είναι τόσο ρόδινα και εύκολα τα πράγματα ( ανάλογα με το complexity του design και το μέγεθος ). Από την στιγμή που η GTX 280 που έχω είτε ήτανε στα 55nm είτε στα 65nm που είναι τώρα, θα είχα τις ίδιες επιδόσεις, τον ίδιο θόρυβο, πάνω κάτω την ίδια κατανάλωση ρεύματος ( +/- 10 - 15W ) και άντε, αν δεν χαμηλώνανε την τάση λειτουργίας ( που σημαίνει ότι η κατανάλωση θα έμενε αμετάλλαχτη ή και θα ανέβαινε ) ίσως να είχαμε και κάτι τις καλύτερο ( ψηλότερο ) overclocking ( με ότι αυτό συνεπάγεται ). H nVIDIA αυτή την στιγμή χρειάζεται: Μια κάρτα για να κόψει τις πωλήσεις της HD4870. Αν μπορεί να τα καταφέρει με το υπάρχον "stock" ακόμα καλύτερα για αυτούς. Και στην συγκεκριμένη περίπτωση παραβολεύει, γιατί αν σκεφτείς πως στην γραμμή παραγωγής πολλοί πυρήνες δεν βγαίνουνε πλήρως λειτουργικοί, συνήθως έχουνε 1-2 TPC προβληματικά, αντί να καταργούνε και άλλα θα γίνονται GTX270 παραδείγματος χάρη. Οπότε στο τέλος παίρνει πιο πολλούς λειτουργικούς πυρήνες ανά wafer από ότι πριν που έβγαζε κάμποσους για GTX 280, κάμποσους για GTX 260 και πετούσε ένα πλήθος στον κάδο των αχρήστων. H δε GTX 280 θα μπορούσε άνετα να γίνει ένα μεγαλύτερο τέρας με λίγες αλλαγές, οι οποίες μάλιστα δεν χρειάζονται και απαραίτητα μετάβαση σε χαμηλότερο manufacturing process ( βεβαίως αν μπορούνε να καταφέρουνε και τις αλλαγές αλλά και να πάνε στα 55nm ακόμα καλύτερα ). Αν αυξήσουνε την αναλογία των shaders στο 2.5x, με ταυτόχρονη αύξηση του αριθμού των shaders, όπου αναγκαστικά λόγω design θα ανέβουνε και τα ROPs και τα TFUs ακόμα και με τα ίδια clocks να βγει η κάρτα, μόνο με υψηλότερα χρονισμένους τους Stream Processors θα έχουμε να κάνουμε με ένα θηρίο που θα κοντράρει στα ίσα και θα ξεπερνάει επί το πλείστον την HD4870X2. Το πλάνο τους αυτό ήτανε. Και με την ολιγορία της AMD τα τελευταία δύο χρόνια επαναπαύτηκε και η nVIDIA και δεν περίμενε πως οι νέες Radeon θα ήτανε τόσο καλές, έτσι ξαφνικά είδανε τον "χάρο με τα μάτια" ( μεταφορικά πάντα...ακόμα και να έχανε αμαχητί η nVIDIA αυτόν τον γύρο στις πωλήσεις, πάλι το οικονομικό τους status επαρκεί για να αγοράσουνε την AMD ). Εδώ έχουμε τα εξής: 1) Ναι, πρός το παρόν στα 200-250 ευρώ η AMD παίζει μόνη της μπάλα. Αλλά αν ο χρήστης πει "μπορώ να δώσω και κάτι παραπάνω" στο εξωτερικό ( και κανονικά θα έπρεπε και στην Ελλάδα ) η GTX 280 έχει 290-310 ευρώπουλα αναλόγως τον "κατασκευαστή" ( του αυτοκόλλητου ) [ βλέπεις τα αυτοκόλλητα της EVGA είναι ακριβά π.χ. ]. 2) Ο μέσος χρήστης συνήθως δεν ξέρει καν τι είναι η GDDR5 πότε βγήκε και τι του δίνει, αλλά ούτε ξέρει και στα πόσα nm είναι η κάθε κάρτα, και ούτε καταλαβαίνει τι είναι. Και φυσικά αυτά τα δύο δεν είναι οι υπεύθυνοι των επιδόσεων της κάρτας. Δεν είναι έτσι τα πράγματα. Δεν πήρε η AMD τον προηγούμενο πυρήνα τον έφτιαξε στα 55nm έβαλε και GDDR5 αντί GDDR3/GDDR4 και μαγικώς βγήκε αυτή η τρομερή και δυνατή κάρτα. Για να μην πολυλογούμε η AMD στις HD4xxx έφτιαξε διότι: 1) Άλλαξε το ring bus σε ένα νέο design με κεντρικό hub που τους δίνει λιγότερο latency μεταξύ των διαφόρων "components" του πυρήνα 2) Αύξησε την data cache που είχε διαθέσιμο το κάθε "cluster" 3) Έφτιαξε ( για τα pure MSAA modes ) το προβληματικό ( μη λειτουργικό στους προηγούμενους πυρήνες ) hardware AA resolve, και επιτέλους ήρθανε οι επιδόσεις με Anti-Aliasing στα ίσα τους μιας και πλέον τρέχουνε στα ROPs και όχι στους Shaders. 4) Βελτίωσε την αρχιτεκτονική των TFUs & TMUs και το Z-fillrate. 5) Αύξησε το μέγεθος του framebuffer τώρα που χρειάζεται ( παλαιότερα πηγαίνανε στράφι οτιδήποτε βάζανε πάνω από 512MB ). Και κάμποσες άλλες μικρολεπτομέρειες υπό την έννοια ότι δεν είναι ευρέως γνωστές κλπ ( έκρυψε και κάποιες λεπτομέρειες ταυτόχρονα, δεν ξέρω γιατί ) και που θα περιπλέξουνε την όλη συζήτηση. Αυτά εν ολίγοις. Να συμβαδίσει με τις μνήμες δεν της χρειάζεται ούτε θα κερδίσει κάτι. Και τώρα η AMD που το έπαιζε έξυπνη και πήγε στις GDDR5 έχει μόνο δυνατότητα να προμηθεύεται ICs από έναν μόνο κατασκευαστή ( οι άλλοι δεν είναι ακόμα σε mass production ) με αποτέλεσμα να μην μπορεί να χτυπήσει καλύτερες και χαμηλότερες τιμές. Αν στο παρόν design χρησιμοποιούσε η nVIDIA GDDR5 δεν θα κέρδιζε τίποτα, το κάθε άλλο, θα ανέβαινε το κόστος παραγωγής και η τιμή της κάρτας στην αγορά. Τεχνικά τι θα γινότανε ? Θα είχανε ένα τερατώδες memory bandwidth από το οποίο το 60% θα "καθότανε" ( δεν θα χρησιμοποιούνταν ).
  6. Κάποιο θέμα υπάρχει. Επίσης δεν είναι όσο εύκολο ακούγεται να "μεταφέρεις" ένα τεράστιο μονολιθικό πυρήνα σε μικρότερο process. Κοροϊδία αυτό, αν και δεν είχανε πεί ότι όλες θα είναι 55nm, οπότε υπάρχει η "κερκόπορτα/δικαιολογία" κατά τρόπο τινά. Παρόλα ταύτα επειδή κάνανε πατάτα κρατόντας τις "νεότερες" κάρτες με το ίδιο νούμερο σειράς ( 8 ) έπειτα από ενάμιση έτος, και για να μην φαίνεται παρωπλισμένη στους άσχετους λόγω ότι υπάρχουνε και οι σειρές GTX2xx και οι 9xxx αναγκαστικά ( πάλι κατά τρόπο τινά ) έπρεπε να μεταφέρουνε κάποιες στην 9. Το ότι η AMD έχει GDDR5 στις κάρτες της δεν δίνει κανένα κέρδος σε εσένα. Οι GDDR5 είναι πιο ζεστές από τις GDDR3 και τα τωρινά τουλάχιστον ICs καταναλώνουνε και περισσότερο ρεύμα από τις καλές GDDR3. Όσον αφορά θέμα απόδοσης στα games λόγω της GDDR5 δεν υπάρχει γιατί πολύ απλά το latency και το memory bandwidth ( στις VGA παίζει πολύ περισσότερο ρόλο το bandwidth του framebuffer παρά το latency, που παίζει σχεδόν μηδενικό ρόλο ) είναι τα ίδια διότι από την μια στην GDDR3 η nVIDIA αυξάνει το εύρος διαύλου ενώ η AMD κρατάει μικρότερο εύρος διαύλου και εκμεταλλεύεται τις συχνότητες των GDDR5 για να το αντισταθμίσει. Στα νούμερα πάντως αν το θες να το θέσουμε έτσι, η nVIDIA έχει κάμποσο μεγαλύτερο bandwidth. Τα 55nm δεν σου δίνουν τίποτα πέραν των λίγο καλύτερων θερμοκρασιών και ίσως και χαμηλότερης λειτουργικής τάσης ( οπότε χαμηλώνει και λίγο η κατανάλωση ενέργειας ), όλα αυτά φυσικά στο ίδιο ακριβώς πυρήνα. Δεν μπορείς να πείς αναλογικά αφού με την RV770 από τα τάδε nm στα τάδε πήραμε αυτά και τόσο έπεσε η temp θα πέσει ανάλογα και στον G92. Ούτε φυσικά να πείς ότι η HD4870 επειδή είναι στα 55nm θα είναι πιο κρύα από την GT200 που είναι στα 65nm. Εξήγησα παραπάνω. Αν σου πούλαγε προϊόν κατώτερων επιδόσεων και με λιγότερη αξιοπιστία λόγω "παραχωρήσεων" που θα έπρεπε να κάνει δεν θα ήτανε retarded ? Give or take, στο τέλος μετράνε οι επιδόσεις που έχεις στα games σου. Στα π@π@ρια σου αν είναι στα 80nm ή 32nm man. process. Διάβασε αυτά που έγραψα από πάνω. Αν θες τα αναλύουμε ακόμα πιο τεχνικά υ.γ. Δεν είμαι ούτε ο υπασπιστής της nVIDIA ούτε ο τυπάς που καταριέται την AMD λες και του έφαγε την γκόμενα. Δεν κολλάω σε εταιρίες και ονόματα, η αλήθεια να λέγεται, και οι δύο εταιρίες έχουνε κάνει καλές και κακές επιλογές, και φυσικά από την στιγμή που σκοπός τους είναι το κέρδος, το χρήμα, δεν τους είναι και τίποτα να εξαπατούνε και τον κόσμο. Εταιρίες είναι, όχι φιλανθρωπικά ιδρύματα ( χωρίς αυτό να είναι δικαιολογία έτσι ? )
  7. Εντάξει έπεσαν γρήγορα οι τιμές, αλλά δεν ήτανε ακριβώς επιλογή της nVIDIA. Απλά αυτή την φορά σκοτίστηκε η AMD και έβγαλε μια κάρτα αξιώσεων κόντρα στην nVIDIA. Αν το πάμε σε φάσεις αποθυμένων ας γυρίσουμε λίγο πίσω στην εποχή που βγάζει η nVIDIA την τότε κορυφαία GeForce 4 Ti4600 και ένα μήνα μετά σκάει η ATi με την Radeon 9700PRO και την παίρνει σύριζα την nVIDIA. Τότε η nVIDIA δεν έριξε τις τιμές σχεδόν καθόλου, και "τίμησε" την αγορά του πελάτη. Ήταν καλύτερα ? Άλλωστε αυτή η φάση "Γιατί η κάρτα που πήρα έπεσε η τιμή της πολύ" μου θυμίζει φάση "Πήγα και πήρα την Ferrari Enzo και μετά από 2 μήνες μας βγάζει η Ferrari την FXX". Ιδιαίτερα στον χώρο της πληροφορικής γίνεται τόσα χρόνια, δεν είναι η πρώτη φορά που βγάζουνε νέες κάρτες κάθε 3μιση - 4 μήνες. Άλλωστε τι έχει σημασία ? Να ευχαριστιέσαι την κάρτα που πήρες που παίζει όλα τα παιχνίδια σου τέλεια ή να κοιτάς τις τιμές και να λες γιατί έπεσε ? Τώρα δεν θα μπορώ να πω στον Μάκη ότι έχω πιο ακριβή κάρτα... Για την "αντιμέτωπο" της 4870X2 οι πληροφορίες μου ακόμα λένε πως θα βγεί κάπου εδώ μέχρι τα μέσα του Σεπτέμβρη. Θέλω να πιστεύω πως είναι σωστές και δεν άλλαξε κάτι, γιατί το παλικάρι συνεχίζει να μου λέει ότι ναι είναι στο πρόγραμμα. Από την άλλη δεν παίρνω και όρκο, γιατί από την πρώτη στιγμή που βγάλανε την GTX 280 ψάχνονταν πως να φέρουνε τα clocks των Shaders σε normal επίπεδα ( 1600+ MHz @ stock ).
  8. Δηλαδή αν βγάλει έτσι την κάρτα και έχει καλύτερες επιδόσεις από την HD4870 και παίζει στα ίδια λεφτά πάνω κάτω σε χαλάει ε ?...
  9. Αν δεν σας κάνει κόπο, αφήστε και κανά CPU της προκοπής για μένα ρε παιδιά Μάλλον θα πρέπει να κάνω ειδική παραγγελία από το PiLaIsIo Ουγκάντας Δεν πιστεύω να ψωνίζεις και από εκεί tsan
  10. Κυρίως επειδή στα low end και mid-end motherboards παίζουνε components αμφιβόλου ποιότητας, τα οποία έχουνε noise στις εξόδους πρός την CPU, πράγμα που θα μπορούσε να είναι καταστροφικό με ένα spike στην GTL ή VTT τάση. ( από CPU degradation μέχρι και deaths σε σύντομα χρονικά διαστήματα )
  11. Τα πάντα είναι θέμα υλοποίησης. Το πράγμα που ζητάς εσύ ( 1.42V @ idle π.χ. και 1.45V @ load ) είναι θέμα προγραμματισμού στο VID του PWM Controller και γίνεται... αλλά δεν "επιτρέπεται" στους κατασκευαστές από την mama Intel mia Είχε γράψει ένα αρθράκι το AnandTech περί του Vdroop αλλά ως συνήθως υπερέβαλλαν σε κάποια πράγματα.
  12. Το ότι το record σε Phenom x4 είναι 4GHz "screenshot & SuperPi 1M" και αυτά με θερμοκρασίες -10C εώς -20C... τότες μιλάμε για πραγματική ονείρωξη του τυπά που έγραψε το "άρθρο" περί 4GHz & 4.4GHz stock συχνότητες ( εκτός και αν σου δίνει phase change cooling η AMD...και πάλι αφού δεν έχουνε πιάσει stable τα 4GHz καν....που τα 4.4GHz... τι θα πουλάνε ? Phenom x4 4GHz SuperPi 1M Edition ? ). Από μια απλή μετάβαση στα 45nm από τα 60nm δίχως ριζικές αλλαγές στην αρχιτεκτονική των Phenom να πιάσουνε τέτοια clocks είναι φύσεως αδύνατο. Τι στοίχημα θέλετε να βάλουμε ? Όλο το hardware μου ? Το βάζω, εσείς είστε μέσα ?
  13. Χμμμ...λίγο naive ο τρόπος σκέψης σου και το comment ? nVIDIA "The Way It's Meant To Be Played" πρόγραμμα συνεργασίας και χορηγίας μεταξύ της nVIDIA και του game developer παρέχοντάς τους hardware ( που κυκλοφορεί ήδη και μη ), tips για βελτιστοποίηση του κώδικα ( προφανώς βελτιστοποίηση που βοηθάει τα μέγιστα για τις κάρτες της nVIDIA, πιθανόν να βοηθάει κάτι τις και τις AMD ), περαιτέρω βοήθεια σε διάφορα τεχνικά θέματα, καθώς και κάποια οικονομική στήριξη. Η AMD ( ex ATi ) είχε και αυτή ένα αντίστοιχο πρόγραμμα, το "Get In The Game" το οποίο "χρησιμοποιήθηκε" σε μερικούς τίτλους, αλλά αργότερα προφανώς λόγω της ανάγκης περικοπής χρημάτων και resources λόγω της οικονομικής κατάστασης της AMD "έπαψε να είναι μέσα στο παιχνίδι" και έκτοτε η nVIDIA έχει πάρει την πρωτοκαθεδρία σε θέματα χορηγείας παιχνδιών μέσω του TWIMTBP. υ,γ, Αν υπονοείς τίποτα για τα benchmarks της FutureMark να σου υπενθυμίσω πως πέραν του Vantage η AMD σαρώνουνε, και ακόμα και πρίν τις HD4xxx κρατούσανε γερά, αλλωτε κατακτόντας την πρωτιά και άλλωτε υστερούσανε λίγο.
  14. Αν θυμάμαι καλά το CPU Voltage Damper ( έτσι το λέγανε τότες, τώρα το λένε LoadLine Calibration ) το εισήγαγαν με την σειρά P5K, και πιο συγκεκριμένα τα μεγάλα της σειράς ( που είχανε και τα κατάλληλα υλικά [ πυκνωτές, mosfets, chokes ] για να αντέχουνε ) την P5K Deluxe και την P5K3 Deluxe.
  15. Το option υπάρχει γιατί η Intel υποχρεώνει τους κατασκευαστές να έχουνε ένα Vdroop οι mobos για διάφορους λόγους ( έχω λεπτομέρειες αν θες να το αναλύσουμε ), καθώς και οι κατασκευαστές επίσης επωφελούνται στα μικρά και μικρομεσσαία τους μοντέλα, όπου αν δεν είχανε Vdroop θα ζοριζότανε απίστευτα τα PWM και ο controller και θα είχαμε big bang πυκνωτές και mosfets κάθε τις και λίγο. Θυμάσαι φαντάζομαι τα bam των p5k-e με όταν πήγαινες quad στα 4.5GHz + με 1.6V+ και σκάγανε οι πυκνωτές σαν τα περιστέρια στο σύνταγμα Οπότε το enable/disable το βάλανε για να μην έχουνε προβλήματα με τα regulations της Intel. CPU Voltage Damper ( έτσι το είχε ονομάσει αρχικά η Asus ) και έπειτα με το νέο όνομα LoadLine Calibration είχανε πολλές Asus εδώ και καιρό: P5K Deluxe P5K3 Deluxe P5K3 Premium P5E3 Deluxe P5E3 Premium Striker II Formula Striker II Extreme Blitz Formula Blitz Extreme Maximus Formula Maximus Extreme Maximus II Formula Rampage Formula Rampage Extreme Και άλλες που μου διαφεύγουνε αυτή τη στιγμή.
  16. Fake. Επίσης το να λανσάρει η AMD τώρα CPU με default συχνότητες τα 4+ GHz είναι το ίδιο πιθανό με το να αρχίσω εγω να χέζω $
  17. Βρε Winters πέραν της P5E64 WS Evolution όπου έχει πρόβλημα με το LoadLine Calibration, πού βρίσκεις σε σοβαρό μοντέλο της Asus Vdroop @ Vcore ? Με το CPU Voltage Damper aka LoadLine Calibration το Vdroop είναι τόσο μικρό που θεωρείται ανύπαρκτο. ( π.χ. http://www.benchzone.com/datas/users/0-asus_striker_ii_extreme_cpu_voltage_measurements_table.png )
  18. Πρίν 2 μήνες πάλι τα ίδια είχε γράψει το Hexus και αφού έγινε αρκετός ντόρος έβγαλε η εταιρία επίσημη ανακοίνωση να διαψεύσει τις φήμες. Πρίν κανά 8αρι μήνες πάλι τα ίδια ( φήμες για κλείσιμο, οι οποίες είχανε γραφεί μάλιστα με τρόπο που να δείχνει ότι ήτανε σίγουρη και τελειωμένη υπόθεση ) από το TCM ( tech connect mag ) και πάλι ταπί από την Abit. One way or another, ένας "καλός" και εύκολος τρόπος να τραβήξεις κόσμο στο site σου... Αν δεν βγεί ανακοίνωση από την Abit ή έστω μια επιβεβαίωση από κάποιον από την εταιρία τίποτα δεν είναι σίγουρο...πόσο μάλλον από sites που έχουν λερωμένη την βρωμοφωλιά τους.
  19. Πρωτού επιβεβαιωθεί από εργαζόμενο της Abit μην παίρνετε τίποτα ως δεδομένο. Άλλωστε το θέμα "κλείνει η Abit" είναι το αγαπημένο των rumor sites...αν θυμάστε καλά τον τελευταίο χρόνο έχουνε βγάλει φήμες ότι κλείνει η Abit 3 φορές...
  20. Δεν είναι και δύσκολο. Δανείζω σε έναν φίλο μου την Commando, πάει να βάλει την CPU το παλικάρι αλλά μέσα στην αφηρημάδα του τον έβαζε με την λάθος γωνία...λίγη πίεση και έγινε η δουλειά. Σε άλλη mobo μου την στέλνει ο άλλος με μεταφορική μέσα στην συσκευασία της δίχως το προστατευτικό πλαστικό. Ε... το USB 2.0 bracket έκανε την δουλειά του
  21. Αν δεν τα καταφέρεις στην φτιάχνω εγω for free
  22. 321euro ? Haha, no thanks! Θα πάρω ένα....sample
  23. 1) Ποιός κουβαλάει τις A-Data μου πλέον ? 2) Προσοχή παιδιά, στα X38/X48 ο 3/5 divider δεν παίζει, και στην πραγματικότητα είναι 2/3 ( προφανώς συμπεριλαμβανομένης και της Evo racer ) [ δηλαδή ενώ διαλέγεις τον 3/5 στην πραγματικότητα εφαρμόζει το 2/3 ].
  24. Benchmarking apps: http://www.hqv.com/