Da GigaByte due Geforce 6600 GT in "SLI" e DDR3

Aperto da Glide, 16 Dicembre 2004, 23:31:57

Discussione precedente - Discussione successiva

0 Utenti e 1 Visitatore stanno visualizzando questa discussione.

Glide

Invitiamo i nostri lettori a contribuire con i propri commenti alla notizia in oggetto. Per un approfondimento completo di questo argomento, si prega di consultare il nostro articolo di riferimento disponibile al seguente link: https://www.hwsetup.it/news/reader.php?objid=553

bambalows

Si si ganzissimo ma .... voglio vedere quanti yuri costerà.

sgamalà ciapalà....cupalà

andreagiommi

5/600 dollari in bundle con la k8nxp9 sli con nforce4u. Non male direi! non male per niente l'offerta Gigabyte... peccato che sto periodo sono squattrinato! :D

Ciao Ciao


SSDD

Il buongiorno si vede dal mattino... E' la giornata di merd@ che ti coglie impreparato!!!

Khana

Hmmmm... e io che sto invece pensando di passare ad nVidia perché i drver ATi per Linux sono più lenti di mia nonna in carrozzella...
Mo faccio du contiscini... :D

Powered by


- non svegliate il can che morde -

Khana

"seppure ben lontane dal limite massimo teorico in base al quale la potenza di calcolo sviluppata è in prima approssimazione doppia rispetto ad un controller dotato di un solo processore"

Ma-non-è-vero-nienteeeeeeeee!!!
Due schede fisicamente in SLI (ossia in modalità "cluster" ;) hanno prestazioni teoricamente vicine al doppio di una scheda singola, ma un tecnologia multi CPU su PCB singolo, ha una approssimazione pari al +30% per processore aggiunto... sempre da un solo RAMDAC si passa... non a caso le 5500 avevano 4 processori grafici, per cercare di "raddoppiare" le prestazioni.

Motivo per cui ho sempre cercato di convincere i (moltemplici) felici possessori della (mia) Volari a fare test anche su monitor DVI... :rolleyes:;):cool::D

Powered by


- non svegliate il can che morde -

Khana

Powered by


- non svegliate il can che morde -

Superbox

CitazioneMa-non-è-vero-nienteeeeeeeee!!!
Due schede fisicamente in SLI (ossia in modalità "cluster" ;) hanno prestazioni teoricamente vicine al doppio di una scheda singola, ma un tecnologia multi CPU su PCB singolo, ha una approssimazione pari al +30% per processore aggiunto... sempre da un solo RAMDAC si passa... non a caso le 5500 avevano 4 processori grafici, per cercare di "raddoppiare" le prestazioni.

A parte che i vsa100 della 5500 erano 2 e non 4... comunque il ragionamento non regge: con 2 schede in SLI si avrebbe comunque lo stesso "collo di bottiglia" (sulla legittimità del termine, vedi sotto) che si ottiene con 2 chip su singolo pcb, dato che si passa comunque da un solo ramdac (il monitor è allacciato ad una sola delle due schede, e come nel design a pcb singolo, converte in analogico il segnale digitale al termine dell'elaborazione di cui le schede video si fanno carico).

Ma a dirla tutta... credo si stia sfiorando il paradosso anche solo immaginando che il ramdac possa diventare collo di bottiglia sulla capacità di calcolo di una scheda... :rolleyes:

La resa prestazionale (nonchè qualitativa) dello SLI è invece dipendente dall'architettura e dalle modalità con cui questo è implementato. Ma nvidia ha brillantemente risolto lasciando decidere all'utente quale "strada" percorrere per ogni applicativo.

Riguardo alla volari: non fa testo. E' una scheda video solo sulla carta (beh... forse anche nel prezzo spropositato).



Questo messaggio è stato aggiornato da Superbox il 19/12/2004  alle ore  18:13:51
In filosofia, in religione, in etica e in politica, due e due avrebbero potuto fare cinque. Ma fino a che ci si manteneva nell'ambito di disegnare un aeroplano o un fucile, dovevano fare quattro.
- G. Orwell

Khana

Io rimango dell'idea che la tecnologia DVI offra migliori prestazioni "in uscita" dalla scheda.
E comunque le prestazioni di una scheda dual GPU sono inferiori a quelle di due schede mono GPU in SLI (a parità di GPU).

Per quanto invece riguarda la Volari, io rimango curioso lo stesso.



Questo messaggio è stato aggiornato da khana il 20/12/2004  alle ore  01:51:36
Powered by


- non svegliate il can che morde -

Superbox

Mi accorgo ora, rileggendo il mio post, che quando ho scritto che nvidia lascia scegliere all'utente quale modalità sli utilizzare forse ho scritto una ciofeca, dato che mi viene il dubbio di essermi confuso con l'AA. :o

CitazioneIo rimango dell'idea che la tecnologia DVI offra migliori prestazioni "in uscita" dalla scheda.
E comunque le prestazioni di una scheda dual GPU sono inferiori a quelle di due schede mono GPU in SLI (a parità di GPU).

Vero. Però non dipende dal Ramdac.
Bisogna vedere come viene implementata la gestione delle due gpu, ma qui si entra in un campo eccessivamente tecnico, e non me ne intendo abbastanza per dare una diagnosi esatta del problema del decadimento prestazionale.

Quel che volevo precisare è che il ramdac si occupa solo di prendere il risultato dell'operazione e mostrarlo a video dopo la conversione digitale->analogico, a frequenza e risoluzioni stabilite (maggiore il ramdac, maggiori gli hz disponibili per ogni data risoluzione).

CitazionePer quanto invece riguarda la Volari, io rimango curioso lo stesso.

La curiosità è lecita.
Ma diciamocelo... compreresti delle quote della società? :D



Questo messaggio è stato aggiornato da Superbox il 20/12/2004  alle ore  02:06:24
In filosofia, in religione, in etica e in politica, due e due avrebbero potuto fare cinque. Ma fino a che ci si manteneva nell'ambito di disegnare un aeroplano o un fucile, dovevano fare quattro.
- G. Orwell

Pandyno

Mi accodo a questa interessante discussione, facendo notare che la soluzione di gigabyte è più performante rispetto a due 6600GT con il bridge; l'ingegnerizzazione in questo caso è stata eseguita in modo magistrale

Ammetto di non essermi ancora documentato (lo farò in vista di un articolo futuro) riguardo questa nuova tecnologia nVidia, pare comunque che l' utente non abbia modo di scegliere la modalità di generazione della scena, ma la stessa (frame) è calcolata metà superiore con un processore e l' altra metà con il secondo processore.

Per quanto riguarda il divario di prestazioni del 30% a cui fa riferimento Khana, temo che il Ramdac non c' entri nulla, esso è solo responsabile della qualità generata a video, le matrox ad esempio montano ramdac e filtri passa basso/alto di prim' ordine.
La perdita di prestazioni è dovuta all' interfaccia utilizzata, e alla sincronizzazione dei segnali; nella soluzione adottata da gigabyte, il PCB progettato ad hoc e un bridge migliore restituiscono prestazioni comparabili ad una 6800GT

Ultimo appunto va fatto alla memoria: pare che gli ultimi driver contengano delle voci come "Frame Buffer 256mb", che sia stato trovato il modo di ovviare al problema delle texture? (la voodoo 5 6000 ha 32mb utili non 128mb)  



? ! ? -? ? !! ? ?