Invitiamo i nostri lettori a contribuire con i propri commenti alla notizia in oggetto. Per un approfondimento completo di questo argomento, si prega di consultare il nostro articolo di riferimento disponibile al seguente link: https://www.hwsetup.it/news/reader.php?objid=553
Si si ganzissimo ma .... voglio vedere quanti yuri costerà.
5/600 dollari in bundle con la k8nxp9 sli con nforce4u. Non male direi! non male per niente l'offerta Gigabyte... peccato che sto periodo sono squattrinato! :D
Ciao Ciao
Hmmmm... e io che sto invece pensando di passare ad nVidia perché i drver ATi per Linux sono più lenti di mia nonna in carrozzella...
Mo faccio du contiscini... :D
"seppure ben lontane dal limite massimo teorico in base al quale la potenza di calcolo sviluppata è in prima approssimazione doppia rispetto ad un controller dotato di un solo processore"
Ma-non-è-vero-nienteeeeeeeee!!!
Due schede fisicamente in SLI (ossia in modalità "cluster" ;) hanno prestazioni teoricamente vicine al doppio di una scheda singola, ma un tecnologia multi CPU su PCB singolo, ha una approssimazione pari al +30% per processore aggiunto... sempre da un solo RAMDAC si passa... non a caso le 5500 avevano 4 processori grafici, per cercare di "raddoppiare" le prestazioni.
Motivo per cui ho sempre cercato di convincere i (moltemplici) felici possessori della (mia) Volari a fare test anche su monitor DVI... :rolleyes:;):cool::D
Ad esempio, prendete questa scheda
http://www.3dlabs.com/products/product.asp?prod=293
Notate: è solo DVI... :D
CitazioneMa-non-è-vero-nienteeeeeeeee!!!
Due schede fisicamente in SLI (ossia in modalità "cluster" ;) hanno prestazioni teoricamente vicine al doppio di una scheda singola, ma un tecnologia multi CPU su PCB singolo, ha una approssimazione pari al +30% per processore aggiunto... sempre da un solo RAMDAC si passa... non a caso le 5500 avevano 4 processori grafici, per cercare di "raddoppiare" le prestazioni.
A parte che i vsa100 della 5500 erano 2 e non 4... comunque il ragionamento non regge: con 2 schede in SLI si avrebbe comunque lo stesso "collo di bottiglia" (sulla legittimità del termine, vedi sotto) che si ottiene con 2 chip su singolo pcb, dato che si passa comunque da un solo ramdac (il monitor è allacciato ad una sola delle due schede, e come nel design a pcb singolo, converte in analogico il segnale digitale
al termine dell'elaborazione di cui le schede video si fanno carico).
Ma a dirla tutta... credo si stia sfiorando il paradosso anche solo immaginando che il ramdac possa diventare collo di bottiglia sulla capacità di calcolo di una scheda... :rolleyes:
La resa prestazionale (nonchè qualitativa) dello SLI è invece dipendente dall'architettura e dalle modalità con cui questo è implementato. Ma nvidia ha brillantemente risolto lasciando decidere all'utente quale "strada" percorrere per ogni applicativo.
Riguardo alla volari: non fa testo. E' una scheda video solo sulla carta (beh... forse anche nel prezzo spropositato).
Questo messaggio è stato aggiornato da Superbox il 19/12/2004 alle ore 18:13:51
Io rimango dell'idea che la tecnologia DVI offra migliori prestazioni "in uscita" dalla scheda.
E comunque le prestazioni di una scheda dual GPU sono inferiori a quelle di due schede mono GPU in SLI (a parità di GPU).
Per quanto invece riguarda la Volari, io rimango curioso lo stesso.
Questo messaggio è stato aggiornato da khana il 20/12/2004 alle ore 01:51:36
Mi accorgo ora, rileggendo il mio post, che quando ho scritto che nvidia lascia scegliere all'utente quale modalità sli utilizzare forse ho scritto una ciofeca, dato che mi viene il dubbio di essermi confuso con l'AA. :o
CitazioneIo rimango dell'idea che la tecnologia DVI offra migliori prestazioni "in uscita" dalla scheda.
E comunque le prestazioni di una scheda dual GPU sono inferiori a quelle di due schede mono GPU in SLI (a parità di GPU).
Vero. Però non dipende dal Ramdac.
Bisogna vedere come viene implementata la gestione delle due gpu, ma qui si entra in un campo eccessivamente tecnico, e non me ne intendo abbastanza per dare una diagnosi esatta del problema del decadimento prestazionale.
Quel che volevo precisare è che il ramdac si occupa solo di prendere il risultato dell'operazione e mostrarlo a video dopo la conversione digitale->analogico, a frequenza e risoluzioni stabilite (maggiore il ramdac, maggiori gli hz disponibili per ogni data risoluzione).
CitazionePer quanto invece riguarda la Volari, io rimango curioso lo stesso.
La curiosità è lecita.
Ma diciamocelo... compreresti delle quote della società? :D
Questo messaggio è stato aggiornato da Superbox il 20/12/2004 alle ore 02:06:24
Mi accodo a questa interessante discussione, facendo notare che la soluzione di gigabyte è più performante rispetto a due 6600GT con il bridge; l'ingegnerizzazione in questo caso è stata eseguita in modo magistrale
Ammetto di non essermi ancora documentato (lo farò in vista di un articolo futuro) riguardo questa nuova tecnologia nVidia, pare comunque che l' utente non abbia modo di scegliere la modalità di generazione della scena, ma la stessa (frame) è calcolata metà superiore con un processore e l' altra metà con il secondo processore.
Per quanto riguarda il divario di prestazioni del 30% a cui fa riferimento Khana, temo che il Ramdac non c' entri nulla, esso è solo responsabile della qualità generata a video, le matrox ad esempio montano ramdac e filtri passa basso/alto di prim' ordine.
La perdita di prestazioni è dovuta all' interfaccia utilizzata, e alla sincronizzazione dei segnali; nella soluzione adottata da gigabyte, il PCB progettato ad hoc e un bridge migliore restituiscono prestazioni comparabili ad una 6800GT
Ultimo appunto va fatto alla memoria: pare che gli ultimi driver contengano delle voci come "Frame Buffer 256mb", che sia stato trovato il modo di ovviare al problema delle texture? (la voodoo 5 6000 ha 32mb utili non 128mb)
CitazioneMi accodo a questa interessante discussione, facendo notare che la soluzione di gigabyte è più performante rispetto a due 6600GT con il bridge; l'ingegnerizzazione in questo caso è stata eseguita in modo magistrale
Non credo sia un fattore di ingenerizzazione, semmai è dovuto all' ampiezza del bus PCI-E che riesce a indirizzare adeguatamente le risorse necessarie per la gestione seriale o parallela delle due GPU (Il PCI-E gestisce anche due GPU in Master) .
Infatti il principale problema che ha frenato lo sviluppo di soluzioni Dual Chip nell'AGP corrente era ed è lo scarso indirizzamento di risorse della stessa interfaccia che veniva già saturata con una singola moderna GPU.
I tentativi coraggiosi di intraprendere tale difficilissima strada su Zoccolo AGP sono stati prontamente abbandonati già al primo tentativo (XGI Docet.)
IMHO l'incremento di performance è dovuto al fatto che lo scambio dei dati non passa attraverso nessuna periferica "esterna" e pertanto le latenze sono ridotte al minimo, appunto, non essendoci alcuno scambio "esterno" di informazioni bidirezionali tra il bridge e i 2 BUS PCI-E .
CitazioneAmmetto di non essermi ancora documentato (lo farò in vista di un articolo futuro) riguardo questa nuova tecnologia nVidia, pare comunque che l' utente non abbia modo di scegliere la modalità di generazione della scena, ma la stessa (frame) è calcolata metà superiore con un processore e l' altra metà con il secondo processore.
:rolleyes: ... infatti CMV di diverso avviso è la review dello Scalable Link Interface di Nvidia apparsa su www.hexus.net nella quale vengono benchate entrambe le modalità di rendering (SFR ed AFR) e, sempre nello stesso sito, questa volta nella preview dello SLI, vengono indicate le modalità operative per attivare e disattivare l'SFR da pannello di controllo NVIDIA, switchando di fatto alla modalità AFR quando l'SFR è disattivo.
CitazioneLa perdita di prestazioni è dovuta all' interfaccia utilizzata, e alla sincronizzazione dei segnali; nella soluzione adottata da gigabyte, il PCB progettato ad hoc e un bridge migliore restituiscono prestazioni comparabili ad una 6800GT
Sempe IMHO è opportuno aspettare le reviews di questa scheda, per confermare effettivamente che la soluzione dual GPU di Gigabyte sia performante per come scrive.
Infatti non credo ad "innovazioni" miracolose nella realizzazione di un PCB o in una "tecnologia aliena" realizzativa del portentoso Bridge in dotazione a Gigabyte .
Potrebbe semplicemente trattarsi di un hype per creare attesa e magari incrementare le prevendite di tale piccolo gioiellino (perchè in ogni caso tale è).
Se poi sono riusciti in tale impresa, posso solo rallegrarmi pensando ad una soluzione Dual GPU basata su 6800 GT od una equivalente basata su GPU ATI che ha dchiarato ufficialmente il supporto per una soluzione Dual anche per le loro GPU.
Ciao a tutti.
Questo messaggio è stato aggiornato da amigamerlin il 23/12/2004 alle ore 15:48:53
Il vantaggio come mi pare hai accennato, secondo me stà nel fatto che i due processori non usino il bus PCI Ex. per comunicare, ma comunicano direttamente attraverso il bridge posto nel PCB.
Per alcune operazioni infatti, è pensabile che le texture passino da una scheda all' altra generando quindi delay e perdita di scalabilità.
Vorrei fare un appunto sul Volari: non è una scheda grafica.
E' un bellissimo esercizio, da collezione, da appassionati, ma è tutto fuorchè un prodotto utilizzabile.
In passato ATI ha provato con la MAXX, subito abbandonato il progetto: troppi problemi e le prestazioni onestamente non giustificavano nè la spesa da parte della stessa ATI nè da parte dell' utente.
Al momento il dual GPU per come la vedo io conviene solo su processori 6600GT, alta resa costi e consumi bassi.
Probabilmente una scheda con due NV40 non la vedremo mai
Sicuramente conviene aspettare delle prove, ma non credo che ne vedremo in vendita prima che qualcuno vi abbia scritto un articolo
La faccina la potevi risparmiare data l' ammissione da parte mia di non aver approfondito tale argomento.
CitazionePer alcune operazioni infatti, è pensabile che le texture passino da una scheda all' altra generando quindi delay e perdita di scalabilità.
Non per alcune operazioni, ma per la quasi totalità delle operazioni lo scambio dati è continuo ed avviene in maniera dinamica da e verso il bridge
CitazioneVorrei fare un appunto sul Volari: non è una scheda grafica.
E' un bellissimo esercizio, da collezione, da appassionati, ma è tutto fuorchè un prodotto utilizzabile.
Naturalmente questa è una tua opinione che si discorda sostanzialmente dalla mia.
Il prodottto è utilizzabilissimo (i driver stanno maturando e rendono sempre meglio) !! Che poi non sia performante al pari delle concorrenti è un altro discorso, ma da ciò a definirlo "un esercizio" mi sembra alquanto fuori luogo.
Infatti credo che abbiano pensato alla soluzione multigpu perchè sapevano che il loro chip non sarebbe stato portentoso e quindi lavorato sulla soluzione MultiGPU per sopperire alle carenze prestazionali di una sola GPU.
Ti ricordo che la velocità operativa e di calcolo viene "stimata" fino a quando non si hanno le prime GPU fisiche.
Una volta provata la GPU si sono resi conto immeditamente che la singola GPU riusciva a saturare quasi completamente l'interfaccia AGP. A questo punto hanno anche tentato di "recuperare" abbassando il clock (sulla volari Duo), ma con scarso risultato.
Parlando con il Product Manager di XGI lo stesso mi ha detto esplicitamente che ora "la priorità è la soluzione Single GPU" che rende quasi quanto un DUO.
CitazioneSicuramente conviene aspettare delle prove, ma non credo che ne vedremo in vendita prima che qualcuno vi abbia scritto un articolo
Infatti ho parlato di prevendita come fece Nvidia con il Geforce FX Ultra per il quale le prevendite iniziarono ben prima la reale disponibilità.
CitazioneLa faccina la potevi risparmiare data l' ammissione da parte mia di non aver approfondito tale argomento.
IMHO il beneficio del dubbio può essere valido quando non ci sono le condizioni oggettive per dimostrare la tesi sostenuta e non quando vi sono Review ed articoli.
Infatti non mi sembra molto sensato, per chi vuole fare informazione (futuro articolo sulla scheda), iniziare una discussione ammettendo pubblicamente di non conoscere l'argomento che si sta per discutere.
Questo messaggio è stato aggiornato da amigamerlin il 24/12/2004 alle ore 05:46:20
(https://www.forumzone.it/public/uploaded/re-voodoo/Picture%202386%20copy.jpg)
(https://www.forumzone.it/public/uploaded/re-voodoo/Picture%202385%20copy.jpg)
(https://www.forumzone.it/public/uploaded/re-voodoo/Picture%202392%20copy.jpg)
Presumo che la scelta di orientamento dei chip di memoria non sia propriamente casuale e neppure una mera ricerca di spazio... probabilmente la nuova posizione consente lo sviluppo di circuiti integrati con lunghezze che facilitano la sincronizzazione delle due GPU, che possono quindi sfruttare al meglio il PCI-E...
Dubito che una eventuale V8 Duo su PCI-E possa fare meglio della versione AGP della stessa... Vi ricordo che su un AGP 2x funzionava meglio che sul 4x...
CitazionePresumo che la scelta di orientamento dei chip di memoria non sia propriamente casuale e neppure una mera ricerca di spazio... probabilmente la nuova posizione consente lo sviluppo di circuiti integrati con lunghezze che facilitano la sincronizzazione delle due GPU, che possono quindi sfruttare al meglio il PCI-E...
Credo che siano stati ruotati a 45 gradi per permetter una facile uscita dei segnali sopratutto per qulli che devono essere "recuperati" in fase ( i riccili che vedete sono appunto un recupero della fase dei segnali)
CitazioneDubito che una eventuale V8 Duo su PCI-E possa fare meglio della versione AGP della stessa... Vi ricordo che su un AGP 2x funzionava meglio che sul 4x...
Io credo il contrario; ne dubito (il PM di XGI mi ha detto espressamente "NO new dual configuration" ;), ma lo spero vivamente, che in un futuro anche XGI presenti una scheda Duo (magari con XG47) su bus PCI-E.
ciao
Salve ragazzi, ulteriori aggiornamenti:
su Firingsquad esattamente http://www.firingsquad.com/hardware/gigabyte_3d1/ è stata effettuata una delle review della 3D1 di Gigabyte raffrontandola con la 6800 GT la 6800 Ultra e la 6600 GT.
Anche se la review è stata condotta con i driver 66.93 (ultimi WHQD) la scheda risulta essere comunque più lenta della 6800 GT e non si avvicina MAI nemmeno lontanamente alla 6800 ULTRA !!
Ciò nonostante è un gran bel pezzo d'hardware ma nulla di miracoloso e nulla che non possa essere raggiunto da configurazioni Dual SLI "tradizionali".
Questa prima review, conferma in pieno quanto avevo sostenuto nei miei precedenti interventi, nei quali dubitavo fortemente in ingegnerizzazioni e bridge "Alieni" che permettessero di eguagliare le perfomance di una 6800 Ultra .
Come al solito, parafrasando, tra il dire ed il fare c'è di mezzo il mare. :D :D :D
Questo messaggio è stato aggiornato da amigamerlin il 31/12/2004 alle ore 08:09:42
CitazioneMotivo per cui ho sempre cercato di convincere i (moltemplici) felici possessori della (mia) Volari a fare test anche su monitor DVI... :rolleyes:;):cool::D
eheheheh :D molteplici possessori, un unico proprietario :D ora molto geloso dell'oggetto :D :D.
Ciao Khana ;) e grazie di aver portato in italia questo gioiellino (non scherzo).
Questo messaggio è stato aggiornato da amigamerlin il 31/12/2004 alle ore 08:05:29
CitazioneNaturalmente questa è una tua opinione che si discorda sostanzialmente dalla mia.
questo è un dato di fatto.
Prova a farci girare TRAOD(10fps), FARCRY (7-10fps), HL2, Blood Rayne(15fps), NFSU/2(10-15fps), magari con AA jittered e texture sfocate
Il volari lo utilizzi solo con texture piatte e titoli poco impegnativi dal punto di vista dell' utilizzo del Bump EMBM e Cube
CitazioneInfatti ho parlato di prevendita come fece Nvidia con il Geforce FX Ultra per il quale le prevendite iniziarono ben prima la reale disponibilità.
La 5800Ultra è una scheda particolare venuta in un momento altrettanto particolare; per la scheda prodotta da Gigabyte non credo vi saranno prevendite.
CitazioneIMHO il beneficio del dubbio può essere valido quando non ci sono le condizioni oggettive per dimostrare la tesi sostenuta e non quando vi sono Review ed articoli.
Infatti non mi sembra molto sensato, per chi vuole fare informazione (futuro articolo sulla scheda), iniziare una discussione ammettendo pubblicamente di non conoscere l'argomento che si sta per discutere.
E' molto sensato invece e direi piuttosto corretto da parte mia dare un' opinione e discutere sottolineando la mia mancanza.
Il mio post non era rivolto a informare, ma a discutere di questa particolare scheda che per molti versi ricorda un' altra scheda a noi tutti nota e cara.
Quantomeno strano questo tuo commento; una cosa è fare chiacchere da bar come in tutti i forum e una cosa e scrivere un articolo.
Comunque sfrutto l' occasione per augurarvi buon anno
CitazioneSalve ragazzi, ulteriori aggiornamenti:
su Firingsquad esattamente http://www.firingsquad.com/hardware/gigabyte_3d1/ è stata effettuata una delle review della 3D1 di Gigabyte raffrontandola con la 6800 GT la 6800 Ultra e la 6600 GT.
Anche se la review è stata condotta con i driver 66.93 (ultimi WHQD) la scheda risulta essere comunque più lenta della 6800 GT e non si avvicina MAI nemmeno lontanamente alla 6800 ULTRA !!
Ciò nonostante è un gran bel pezzo d'hardware ma nulla di miracoloso e nulla che non possa essere raggiunto da configurazioni Dual SLI "tradizionali".
Questa prima review, conferma in pieno quanto avevo sostenuto nei miei precedenti interventi, nei quali dubitavo fortemente in ingegnerizzazioni e bridge "Alieni" che permettessero di eguagliare le perfomance di una 6800 Ultra .
Come al solito, parafrasando, tra il dire ed il fare c'è di mezzo il mare. :D :D :D
Questo messaggio è stato aggiornato da amigamerlin il 31/12/2004 alle ore 08:09:42
Io spero che rileggendo quanto hai scritto ti possa rendere conto del modo/atteggiamento irritante con cui hai liquidato la questione
Nessuno ha parlato di "Alieni" nè di proverbi più o meno scontati.
Appurato che cotesta bellezza non rende quanto una 6800GT, sarebbe stato meglio testarla con i FW 71.22 o 71.24 disponibili al momento della prova
CitazioneCitazioneNaturalmente questa è una tua opinione che si discorda sostanzialmente dalla mia.
questo è un dato di fatto.
Prova a farci girare TRAOD(10fps), FARCRY (7-10fps), HL2, Blood Rayne(15fps), NFSU/2(10-15fps), magari con AA jittered e texture sfocate
Dato di fatto risalente a circa 6 mesi fa. Le cose sono cambiate, non in maniera esorbitante ma sono cambiate. La giocabilità è migliorata mentre la resa cromatica con l'AA sfortunatamente no.
CitazioneCitazioneInfatti ho parlato di prevendita come fece Nvidia con il Geforce FX Ultra per il quale le prevendite iniziarono ben prima la reale disponibilità.
La 5800Ultra è una scheda particolare venuta in un momento altrettanto particolare; per la scheda prodotta da Gigabyte non credo vi saranno prevendite.
Vedremo quanti la daranno immediatamente disponibile nei loro listini e quanto invece la venderanno ancora prima di averla disponibile (prevendita).
CitazioneE' molto sensato invece e direi piuttosto corretto da parte mia dare un' opinione e discutere sottolineando la mia mancanza.
Il mio post non era rivolto a informare, ma a discutere di questa particolare scheda che per molti versi ricorda un' altra scheda a noi tutti nota e cara.
Sempre IMHO è invece sensato discutere a ragion veduta e non "tentare" di discutere dando informazioni errate in quanto in quest'ultimo caso è come discutere sul sesso degli angeli .... e poi che senso ha iniziare una discussione ammettendo di disconoscere l'argomento che si sta per affrontare ?
CitazioneQuantomeno strano questo tuo commento; una cosa è fare chiacchere da bar come in tutti i forum e una cosa e scrivere un articolo.
Sempre IMHO quì non siamo al bar, ed in tutti i forum, quando si discutono argomenti di IT si fa informazione (corretta o scorretta che sia).
Questo messaggio è stato aggiornato da amigamerlin il 02/01/2005 alle ore 11:17:01
Vogliamo giocare a chi ha dato più informazioni fallate negli ultimi tempi? ;)
A me viene in mente proprio un "piccolissimo" periodo; evitiamo di scendere a questi livelli per favore, un forum è fatto per discutere come al bar, nè più nè meno, se poi c' è la discussione tecnica meglio ancora.
Tanto per restare nel campo dei proverbi: "il bue che dice cornuto all' asino"
Ribadisco: il Volari non è una scheda da gioco, se poi ti diverti e ti appassiona è un' altro paio di maniche.
Magari il mio intervento era volto a discutere come i bei vecchi tempi, ma a questo punto sono convinto che non vedresti una mano tesa neanche se l' avessi davanti alla faccia.
Buon proseguimento e buone feste.
CitazioneVogliamo giocare a chi ha dato più informazioni fallate negli ultimi tempi? ;)
Si giochiamoci pure, ma nel tuo forum, quì non più.
CitazioneA me viene in mente proprio un "piccolissimo" periodo; evitiamo di scendere a questi livelli per favore
Si infatti, ti riferisci al Capitolo Revenge !! eh già .. e meno male che la bufala non l'ho inventata io !! ... questo ti sfugge vero?.. e comunque credo di aver pagato abbondantemente ...
Le risposte che leggi sono appunto dettate dalla consapevole e fredda logicità dei fatti e non più da "sentimentalismi" .
Comunque ... si.. giochiamoci pure "alle ultime parole famose", ma non quì e comunque per lo meno io evito di dire di "fare informazione" oppure di parlare di pesudorecensioni.
Citazioneun forum è fatto per discutere come al bar, nè più nè meno, se poi c' è la discussione tecnica meglio ancora.
Forse nel tuo di forum od in quello in cui pseudomoderi, si discute come al bar; quì sicuramente no. Quì gli argomenti "tecnici" non sono "quanti punti fai al 3dmark".
CitazioneTanto per restare nel campo dei proverbi: "il bue che dice cornuto all' asino"
Per l'appunto !!
CitazioneRibadisco: il Volari non è una scheda da gioco, se poi ti diverti e ti appassiona è un' altro paio di maniche.
Non credo possa essere tu a dirlo.
E comunqe, come la definiresti quest'ultima tua affermazione? ... Informazione o disinformazione ?
CitazioneMagari il mio intervento era volto a discutere come i bei vecchi tempi, ma a questo punto sono convinto che non vedresti una mano tesa neanche se l' avessi davanti alla faccia.
Mano tesa ?.. come mai ? cos'è, forse hai qualche rimorso che ti perseguita per qualche tua "buona azione" passata e/o presente ?
Come ti ho già detto, evito raccogliere rispondendo per come vorrei e per come sento per far fede a degli impegni presi con persone che stimo;
Tu dal canto tuo faresti bene ad evitare di "tirare il sasso e ritirare la mano".
Questo messaggio è stato aggiornato da amigamerlin il 02/01/2005 alle ore 16:54:56
Beh io a questo punto aggiungerei:" Mogli è buoi dei paesi tuoi":D
Oppure :"l'epifania tutte le feste si porta via", che non c'entra una mazza ma fa festività un bel pò! :duo
Ragazzi, come da firma, buon 2005 ;)
Ciao Ciao