Da GigaByte due Geforce 6600 GT in "SLI" e DDR3

Aperto da Glide, 16 Dicembre 2004, 23:31:57

Discussione precedente - Discussione successiva

0 Utenti e 1 Visitatore stanno visualizzando questa discussione.

Amigamerlin

CitazioneMi accodo a questa interessante discussione, facendo notare che la soluzione di gigabyte è più performante rispetto a due 6600GT con il bridge; l'ingegnerizzazione in questo caso è stata eseguita in modo magistrale

Non credo sia un fattore di ingenerizzazione, semmai  è dovuto all' ampiezza del bus PCI-E che riesce a indirizzare adeguatamente  le risorse necessarie  per la gestione seriale o parallela delle due GPU  (Il PCI-E gestisce anche due GPU in Master) .

Infatti il principale problema che ha frenato lo sviluppo di soluzioni Dual Chip nell'AGP corrente era ed è lo scarso indirizzamento di risorse della stessa interfaccia che veniva già saturata con una singola moderna GPU.

I tentativi coraggiosi di intraprendere tale difficilissima strada  su Zoccolo AGP  sono stati prontamente abbandonati già al primo tentativo (XGI Docet.)

IMHO l'incremento di performance è dovuto al fatto che  lo scambio dei dati non passa attraverso nessuna periferica "esterna" e pertanto le latenze sono ridotte al minimo, appunto, non essendoci alcuno scambio  "esterno" di informazioni  bidirezionali tra il bridge e i 2 BUS PCI-E .

CitazioneAmmetto di non essermi ancora documentato (lo farò in vista di un articolo futuro) riguardo questa nuova tecnologia nVidia, pare comunque che l' utente non abbia modo di scegliere la modalità di generazione della scena, ma la stessa (frame) è calcolata metà superiore con un processore e l' altra metà con il secondo processore.

:rolleyes: ... infatti CMV di  diverso avviso è la review dello Scalable Link Interface di Nvidia apparsa su www.hexus.net nella quale vengono benchate entrambe le modalità di rendering (SFR ed AFR) e, sempre nello stesso sito, questa volta nella preview dello SLI, vengono indicate le modalità operative per attivare e disattivare l'SFR da pannello di controllo NVIDIA, switchando di fatto alla modalità AFR quando l'SFR è disattivo.

CitazioneLa perdita di prestazioni è dovuta all' interfaccia utilizzata, e alla sincronizzazione dei segnali; nella soluzione adottata da gigabyte, il PCB progettato ad hoc e un bridge migliore restituiscono prestazioni comparabili ad una 6800GT

Sempe IMHO è opportuno aspettare le reviews di questa scheda, per confermare effettivamente che la soluzione dual GPU di Gigabyte sia performante per come scrive.

Infatti non credo ad "innovazioni" miracolose nella realizzazione di un PCB o in una  "tecnologia aliena" realizzativa del portentoso Bridge in dotazione a Gigabyte .

Potrebbe semplicemente trattarsi di un hype per creare attesa e magari incrementare le prevendite di tale piccolo gioiellino (perchè in ogni caso tale è).

Se poi sono riusciti in tale impresa,  posso solo rallegrarmi pensando ad una soluzione Dual GPU basata su  6800 GT  od una equivalente basata su GPU ATI che ha dchiarato ufficialmente il supporto per una soluzione Dual anche per le loro GPU.

Ciao a tutti.



Questo messaggio è stato aggiornato da amigamerlin il 23/12/2004  alle ore  15:48:53
Amigamerlin
3DFX Zone Administrator

... il Ritorno del RE.

Pandyno

Il vantaggio come mi pare hai accennato, secondo me stà nel fatto che i due processori non usino il bus PCI Ex. per comunicare, ma comunicano direttamente attraverso il bridge posto nel PCB.

Per alcune operazioni infatti, è pensabile che le texture passino da una scheda all' altra generando quindi delay e perdita di scalabilità.

Vorrei fare un appunto sul Volari: non è una scheda grafica.
E' un bellissimo esercizio, da collezione, da appassionati, ma è tutto fuorchè un prodotto utilizzabile.

In passato ATI ha provato con la MAXX, subito abbandonato il progetto: troppi problemi e le prestazioni onestamente non giustificavano nè la spesa da parte della stessa ATI nè da parte dell' utente.
Al momento il dual GPU per come la vedo io conviene solo su processori 6600GT, alta resa costi e consumi bassi.
Probabilmente una scheda con due NV40 non la vedremo mai

Sicuramente conviene aspettare delle prove, ma non credo che ne vedremo in vendita prima che qualcuno vi abbia scritto un articolo

La faccina la potevi risparmiare data l' ammissione da parte mia di non aver approfondito tale argomento.

? ! ? -? ? !! ? ?

Amigamerlin

CitazionePer alcune operazioni infatti, è pensabile che le texture passino da una scheda all' altra generando quindi delay e perdita di scalabilità.

Non per alcune operazioni, ma per la quasi totalità delle operazioni lo scambio dati è continuo ed avviene in maniera dinamica da e verso il bridge

CitazioneVorrei fare un appunto sul Volari: non è una scheda grafica.
E' un bellissimo esercizio, da collezione, da appassionati, ma è tutto fuorchè un prodotto utilizzabile.

Naturalmente questa è una tua opinione che si discorda sostanzialmente dalla mia.

Il prodottto è utilizzabilissimo (i driver stanno maturando e rendono sempre meglio) !! Che poi non sia performante al pari delle concorrenti è un altro discorso, ma da ciò a definirlo "un esercizio" mi sembra alquanto fuori luogo.

Infatti credo che abbiano pensato alla soluzione multigpu perchè sapevano che il loro chip non sarebbe stato portentoso e quindi lavorato sulla soluzione MultiGPU per sopperire alle carenze prestazionali di una sola GPU.

Ti ricordo che la velocità operativa e di calcolo viene "stimata" fino a quando non si hanno le prime GPU fisiche.

Una volta provata la GPU si sono resi conto immeditamente che la singola GPU riusciva a saturare quasi completamente l'interfaccia AGP. A questo punto hanno anche tentato di "recuperare" abbassando il clock (sulla volari Duo), ma con scarso risultato.

Parlando con il Product Manager di XGI lo stesso mi ha detto esplicitamente che ora "la priorità è la soluzione Single GPU" che rende quasi quanto un DUO.
 

CitazioneSicuramente conviene aspettare delle prove, ma non credo che ne vedremo in vendita prima che qualcuno vi abbia scritto un articolo

Infatti ho parlato di prevendita come fece Nvidia con il Geforce FX Ultra per il quale le prevendite iniziarono ben prima la reale disponibilità.


CitazioneLa faccina la potevi risparmiare data l' ammissione da parte mia di non aver approfondito tale argomento.

IMHO il beneficio del dubbio può essere valido quando non ci sono le condizioni oggettive per dimostrare la tesi sostenuta e non quando vi sono Review ed articoli.

Infatti non mi sembra molto sensato, per chi vuole fare informazione (futuro articolo sulla scheda), iniziare una discussione ammettendo pubblicamente di non conoscere l'argomento che si sta per discutere.



Questo messaggio è stato aggiornato da amigamerlin il 24/12/2004  alle ore  05:46:20
Amigamerlin
3DFX Zone Administrator

... il Ritorno del RE.

re-voodoo

re-voodoo

Khana

Presumo che la scelta di orientamento dei chip di memoria non sia propriamente casuale e neppure una mera ricerca di spazio... probabilmente la nuova posizione consente lo sviluppo di circuiti integrati con lunghezze che facilitano la sincronizzazione delle due GPU, che possono quindi sfruttare al meglio il PCI-E...
Dubito che una eventuale V8 Duo su PCI-E possa fare meglio della versione AGP della stessa... Vi ricordo che su un AGP 2x funzionava meglio che sul 4x...


Powered by


- non svegliate il can che morde -

Amigamerlin

CitazionePresumo che la scelta di orientamento dei chip di memoria non sia propriamente casuale e neppure una mera ricerca di spazio... probabilmente la nuova posizione consente lo sviluppo di circuiti integrati con lunghezze che facilitano la sincronizzazione delle due GPU, che possono quindi sfruttare al meglio il PCI-E...

Credo che siano stati ruotati a 45 gradi per permetter una facile uscita dei segnali sopratutto per qulli che devono essere "recuperati" in fase ( i riccili che vedete  sono appunto un recupero della fase dei segnali)

CitazioneDubito che una eventuale V8 Duo su PCI-E possa fare meglio della versione AGP della stessa... Vi ricordo che su un AGP 2x funzionava meglio che sul 4x...

Io credo il contrario; ne dubito (il PM di XGI mi ha detto espressamente "NO new dual configuration" ;), ma lo spero vivamente, che in un futuro anche XGI presenti una scheda Duo (magari con XG47) su bus PCI-E.

ciao

Amigamerlin
3DFX Zone Administrator

... il Ritorno del RE.

Amigamerlin

Salve ragazzi, ulteriori aggiornamenti:

su Firingsquad esattamente http://www.firingsquad.com/hardware/gigabyte_3d1/ è stata effettuata una delle review della 3D1 di Gigabyte raffrontandola con la 6800 GT la 6800 Ultra e la 6600 GT.
Anche se la review è stata condotta con i driver 66.93 (ultimi WHQD) la scheda risulta essere comunque più lenta della 6800 GT e non si avvicina MAI nemmeno lontanamente alla 6800 ULTRA !!

Ciò nonostante è un gran bel pezzo d'hardware ma nulla di miracoloso e nulla che non possa essere raggiunto da configurazioni Dual SLI "tradizionali".

Questa prima review, conferma in pieno quanto avevo sostenuto nei miei precedenti interventi, nei quali dubitavo fortemente in ingegnerizzazioni e bridge "Alieni" che permettessero di eguagliare le perfomance di una 6800 Ultra .

Come al solito, parafrasando, tra il dire ed il fare c'è di mezzo il mare. :D :D :D



Questo messaggio è stato aggiornato da amigamerlin il 31/12/2004  alle ore  08:09:42
Amigamerlin
3DFX Zone Administrator

... il Ritorno del RE.

Amigamerlin

CitazioneMotivo per cui ho sempre cercato di convincere i (moltemplici) felici possessori della (mia) Volari a fare test anche su monitor DVI... :rolleyes:;):cool::D

eheheheh :D molteplici possessori, un unico proprietario :D ora molto geloso dell'oggetto :D :D.

Ciao Khana ;) e grazie di aver portato in italia questo gioiellino (non scherzo).



Questo messaggio è stato aggiornato da amigamerlin il 31/12/2004  alle ore  08:05:29
Amigamerlin
3DFX Zone Administrator

... il Ritorno del RE.

Pandyno

CitazioneNaturalmente questa è una tua opinione che si discorda sostanzialmente dalla mia.

questo è un dato di fatto.
Prova a farci girare TRAOD(10fps), FARCRY (7-10fps), HL2, Blood Rayne(15fps), NFSU/2(10-15fps), magari con AA jittered e texture sfocate

Il volari lo utilizzi solo con texture piatte e titoli poco impegnativi dal punto di vista dell' utilizzo del Bump EMBM e Cube




CitazioneInfatti ho parlato di prevendita come fece Nvidia con il Geforce FX Ultra per il quale le prevendite iniziarono ben prima la reale disponibilità.



La 5800Ultra è una scheda particolare venuta in un momento altrettanto particolare; per la scheda prodotta da Gigabyte non credo vi saranno prevendite.


CitazioneIMHO il beneficio del dubbio può essere valido quando non ci sono le condizioni oggettive per dimostrare la tesi sostenuta e non quando vi sono Review ed articoli.

Infatti non mi sembra molto sensato, per chi vuole fare informazione (futuro articolo sulla scheda), iniziare una discussione ammettendo pubblicamente di non conoscere l'argomento che si sta per discutere.



E' molto sensato invece e direi piuttosto corretto da parte mia dare un' opinione e discutere sottolineando la mia mancanza.
Il mio post non era rivolto a informare, ma a discutere di questa particolare scheda che per molti versi ricorda un' altra scheda a noi tutti nota e cara.

Quantomeno strano questo tuo commento; una cosa è fare chiacchere da bar come in tutti i forum e una cosa e scrivere un articolo.

Comunque sfrutto l' occasione per augurarvi buon anno

? ! ? -? ? !! ? ?

Pandyno

CitazioneSalve ragazzi, ulteriori aggiornamenti:

su Firingsquad esattamente http://www.firingsquad.com/hardware/gigabyte_3d1/ è stata effettuata una delle review della 3D1 di Gigabyte raffrontandola con la 6800 GT la 6800 Ultra e la 6600 GT.
Anche se la review è stata condotta con i driver 66.93 (ultimi WHQD) la scheda risulta essere comunque più lenta della 6800 GT e non si avvicina MAI nemmeno lontanamente alla 6800 ULTRA !!

Ciò nonostante è un gran bel pezzo d'hardware ma nulla di miracoloso e nulla che non possa essere raggiunto da configurazioni Dual SLI "tradizionali".

Questa prima review, conferma in pieno quanto avevo sostenuto nei miei precedenti interventi, nei quali dubitavo fortemente in ingegnerizzazioni e bridge "Alieni" che permettessero di eguagliare le perfomance di una 6800 Ultra .

Come al solito, parafrasando, tra il dire ed il fare c'è di mezzo il mare. :D :D :D



Questo messaggio è stato aggiornato da amigamerlin il 31/12/2004  alle ore  08:09:42

Io spero che rileggendo quanto hai scritto ti possa rendere conto del modo/atteggiamento irritante con cui hai liquidato la  questione

Nessuno ha parlato di "Alieni" nè di proverbi più o meno scontati.

Appurato che cotesta bellezza non rende quanto una 6800GT, sarebbe stato meglio testarla con i FW 71.22 o 71.24 disponibili al momento della prova

? ! ? -? ? !! ? ?