(https://www.forumzone.it/public/uploaded/COSWORTH6K/v8ultra-27.jpg)
(https://www.forumzone.it/public/uploaded/COSWORTH6K/v8ultra-19.jpg)
(https://www.forumzone.it/public/uploaded/COSWORTH6K/v8ultra-30.jpg)
(https://www.forumzone.it/public/uploaded/COSWORTH6K/bios.jpg)
(https://www.forumzone.it/public/uploaded/COSWORTH6K/produktinfo-1.jpg)
(https://www.forumzone.it/public/uploaded/COSWORTH6K/main-1.jpg)
(https://www.forumzone.it/public/uploaded/COSWORTH6K/video-1.jpg)
(https://www.forumzone.it/public/uploaded/COSWORTH6K/gamma-1.jpg)
(https://www.forumzone.it/public/uploaded/COSWORTH6K/V8duo-3D01SE-APS.gif)
:duo :duo :duo :duo :duo :duo :duo :duo :duo :duo :duo :duo
Questo messaggio è stato aggiornato da davide il 08/12/2003 alle ore 18:31:08
non risponde benissimo in Dx8....
concordo...
ma io mi aspettavo di +....
Già cosi' è un ottimo prodotto, non scordiamoci che per arrivare ai livelli di ATI e nvidia non basta immettere sul mercato un paio di generazioni di schede video, XGI punta chiaramente a ''raffinarsi'' nel tempo.
Detto questo penso che ancora a livello driver non ci siamo, anche se è già tanto che la scheda riesca a benchare senza crashare e che vadano la maggior parte dei titoli (cosa che non succede per le schede basate su xabre)
Stiamo a vedere.
Come dice lo stesso Amigamerlin, prima di sfruttare a dovere una scheda dual-gpu ci vuole molto tempo, poi però si vola...:D
complimenti alla xgi!! :cool:
Speriamo di avere al più presto un sample a disposizione...un test misuristico comparativo con una 6k e una 9800 sarà "automatico" :h
Chissà come risponderebbe con i game recenti e non coi bench...
Un' altra curiosità riguarda poi la qualità dell'immagine, che purtroppo non possiamo intravedere dai freddi numeri raccolti nelle immagini postate da COSWORTH6K, e che potrebbe essere il piatto forte (e dal sapore antico) di queste schede una volta che l'intero pacchetto è giunto a piena maturazione.
Ciao ciao
Non voglio ammazzare gli entusiasmi, ma proprio sulla qualità le Volari Duo peccano... almeno per quanti riguarda le immagini che si sono viste fino ad oggi in giro per internet (che non credo siano da ritenersi propriamente ufficiali).
Fiducioso che le schede che finiranno nei negozi sapranno dare di più, vi ricordo che le screen viste fino ad oggi mostrano qualità a livello radeon 8500.
Magari poi è un problema del dump del buffer VGA come c'era sulla 6k e non riescono a prendere screen decenti su una dual GPU...
Ragazzi guardate qui AA è molto ma molto meglio dell'ATI ;)
in pratica il 6X dell'ATI è inferiore al 4X della duo volari....
ecco il link
http://www.hardware-tweaker.de/HTML/Home_4/Overclocking/Artikel_Teil1/XGI_Volari__duo_V8Ultra_Part1/xgi_volari__duo_v8ultra_part20.html
Io aspetterei altre 2 o 3 versioni dei drivers...
john_petrucci
Moderator
nexthardware.com
Mi sembra un ottimo prodotto, e credo che abbia molti margini di miglioramento!!!
Ci sono anche i primi bench delle dual-gpu???
Citazionein pratica il 6X dell'ATI è inferiore al 4X della duo volari....
Questa affermazione ricorda tanto 3dfx. :o :cool:
Quanto alle Volari e al loro antialiasing: per quel poco che questi shot possono mostrare, sembra eccellente.
Chiaramente ci sarà bisogno di qualcosa di più concreto per valutare al meglio la cosa.
Il vero problema è che le prestazioni sembrano crollare con AA abilitato.
Poi... anche qui: se il 2x equivale ad un 4x ati, o comunque gli si avvicinasse molto, sarebbe un risultato splendido, e sopperirebbe al problema del decadimento prestazionale.
Il fatto che abbiano contemplato solo il 2x e il 4x (mentre ATI si spinge a 6 e nVidia addirittura a 8) gioca a supporto di questa teoria (mi piacerebbe paragonare il 4x volari all'8x nvidia :D)..... ma alla fine sono solo congetture... in attesa di qualche recensione seria che dipani molti dubbi... :)
sperò che XGI andrà bene con 3dmark2003 altrimenti fallirà come la storia di 3dfx... stessa comprata da nVIDIA LOL:D
Mi rincresce nn poco vedere che nel nature del 3Dmark 2k1 v.3.30 la Volario Duo V8 ULTRA con ben il doppio delle gpu, 4 volte la ram, e il doppio di clock, faccia 10fps. in meno della mia Point of View geforce 3 Ti200 oc @ 265/540 ad ARIA!! :D
Quei valori tradotti in 3Dmark potranno dare su un sys AMD @ 2000mhz. su x giu 11k a 1024x768 32bit default, uno scempio!!!
Valori come hanno detto altri da 8500, anche si che da quello che ho capito utilizza DDRII, sarà per la prox.!!!
Ciaooo
E' solo questione di tempo.La Duo V8 Ultra al momento è come una F1 con problemi di trazione. Credo che stia maturando un po' in sordina, per poi divenire il Terzo Antagonista. Di certo di miglioramenti ce ne sono assai nelle ultime release di Driver,e non solo nelle prestazioni ma anche nell' Anti aliasing, che se prima non reggeva il confronto con quello Ati adesso sembra quasi superiore a 4x. Speriamo bene
Se aspettiamo ancora esce R420 :D
Veramente già è uscito da un pò ;)
Ero sicuro di avere scritto R520, evidentemente ho sbagliato tasto.
Il volari è quello che è nessun miglioramento è possibile.
ciao
CitazioneEro sicuro di avere scritto R520, evidentemente ho sbagliato tasto.
Il volari è quello che è nessun miglioramento è possibile.
ciao
dici che è propio un problema hardware?:(
Ma ke dici? I miglioramenti rispetto ai primi driver sono stati spaventosi. Se prima l'AA non poteva competere adesso il 4X pare migliore del 6X Ati. Guarda bene.
Se prima non teneva confronto con un 9800pro, adesso in certi frangenti lo supera. Ricorda che il volari duo v8 ultra ha pur sempre il doppio delle capacità di fill rate (6000 errotti megapixel e megatexel), di un 9800pro e una banda passante molto più ampia e quasi il doppio della capacità poligonale. Lo so perchè seguo assiduamente l'evolversi di questa scheda da quando è uscita. Ho conservato addirittura la sua prima recensione.
La potenza è nulla senza controllo. Dagli tempo.
L'unico problema è che quando la scheda potrà dare il meglio di sè (sicuramente più di 9800XT o 5950 Ultra), sarà surclassata dalle new entry di Nvidia e Ati.
Ti dico solo che la soluzione a singolo processore, quindi la V8 ULTRA da documenti XGI deve essere recensita e confrontata con la radeon 9600SE
Poi se tu sei convinto di quel che dici...comprane una ;)
ciao
Scusa che c'entra la V8 Ultra?! quella certo che va paragonata a quella fascia di mercato.
Io stavo parlando del V8 DUO Ultra, cioè il biprocessore. Se guardi le immaggini sopra si può notare "un armi pari" con la 9800pro, se guardi tutti i test invece spesso vi è un vantaggio per Xgi. Col tempo, anche se non potrà competere ne con R420, ne con NV40 ne figurati con futuri R520 e etc... di sicuro darà un certo distacco a 9800pro e anche credo a 9800XT. Questo è quello che voglio dire. A meno che Xgi non si arrenda prima e dichiari il fallimento, non sviluppando più driver. Ma anche in quel caso credo che cederà il tutto agli appassionati che svilupperanno vari driver di volta in volta. Com'è d'altronde per Voodoo 5 6k
Questo messaggio è stato aggiornato da MarcVTR il 15/09/2004 alle ore 19:39:02
Questo messaggio è stato aggiornato da MarcVTR il 15/09/2004 alle ore 19:48:37
Vi dico che x curiosità ne prenderei una (v8ultra dual) ma non di certo a 400 euro.
Certo che se Xgi almeno dimezzasse il prezzo , del V8 duo , faciliterebbe le cose.
CitazioneScusa che c'entra la V8 Ultra?! quella certo che va paragonata a quella fascia di mercato.
Io stavo parlando del V8 DUO Ultra, cioè il biprocessore. Se guardi le immaggini sopra si può notare "un armi pari" con la 9800pro, se guardi tutti i test invece spesso vi è un vantaggio per Xgi. Col tempo, anche se non potrà competere ne con R420, ne con NV40 ne figurati con futuri R520 e etc... di sicuro darà un certo distacco a 9800pro e anche credo a 9800XT. Questo è quello che voglio dire. A meno che Xgi non si arrenda prima e dichiari il fallimento, non sviluppando più driver. Ma anche in quel caso credo che cederà il tutto agli appassionati che svilupperanno vari driver di volta in volta. Com'è d'altronde per Voodoo 5 6k
Pentium4 3,20Ghz; Radeon 9800 Pro+Vga Silencer; Sound Blaster Audigy 2; 160GB
Maxtor S-ATA 8mb cache; 1024mb RAM;Asus P4P800Deluxe; Crative Inspire 5.1; Alim. QTEC GOLD 550W
Questo messaggio è stato aggiornato da MarcVTR il 15/09/2004 alle ore 19:39:02
Questo messaggio è stato aggiornato da MarcVTR il 15/09/2004 alle ore 19:48:37
La V8 ULTRA ha le stesse prestazioni della DUO, segno che qualcosa nell' architettura non quadra.
La V8 ULTRA in principio non era della fascia della 9600se che va quanto una 9200, ma delle ben più performanti 9500pro/9700
leggiti qualche recensione:
http:///modules/sections/index.php?op=viewarticle&artid=22
http://www.hwupgrade.it/articoli/988/1.html
http://www.hwupgrade.it/articoli/1024/1.html
La situazione non è cambiata di una virgola.
Se ancora sei convinto di quello che dici ti ribadisco che puoi comprarne una e appurare a tue spese.
ciao
http://www.hwupgrade.it/articoli/988/1.html
Questo messaggio è stato aggiornato da pandyno il 15/09/2004 alle ore 21:27:19
Ok ok! non dire così, non voglio comprarla mica quella scheda lì.
Questo lo so. I link che mi hai postato li ho già visitati da tempo.
Scusa allora le immaggini che trovi sopra in questo thread sono taroccate?
Le hai viste? Tu dici che la V8 Duo Ultra è performante quanto una V8 Ultra, e che a sua volta una V8 Ultra performa quanto una Radeon 9200.
Questo se è vero, vuol dire che i benchmark quì sù sono falsificati? Boh, spiegami tu. Guarda comunque che nessuno vuol farti cambiare idea. Che mondo sarebbe se tutti la pensassero allo stesso modo ;-)
Ciaoooo Pandyyyy
Questo messaggio è stato aggiornato da MarcVTR il 15/09/2004 alle ore 21:41:03
Questo messaggio è stato aggiornato da MarcVTR il 15/09/2004 alle ore 21:42:38
Allora innanzitutto devo porti le mie scuse perchè la recensione di hwinit non l'avevo letta, ed è più recente.
Numero due, questa quì di seguito è una frase presa dalla recensione di cui sopra che in parte ti conferma quello ke ti dicevo io, e in parte conferma quel ke dicevi tu riguardo ad un problema di architettura della scheda:
<>
Numero 3 : che versione di Reactor hanno usato per questa recensione, sono gli stessi del benchmark presente in questo thread?
Numero 4 : cosa sono sti Cheat nei driver?
Questo messaggio è stato aggiornato da MarcVTR il 15/09/2004 alle ore 22:00:46
CitazioneNumero 4 : cosa sono sti Cheat nei driver?
I punteggi dei bench (3dmark, aquamark) sono taroccati.
E' il solito trucco (quello brevettato prima da casa nvidia): prima di avviare il rendering, viene eseguito un controllo del nome dell'eseguibile; la cosa è verificabile rinominandoli "aquamerd.exe" o "3dmerd.exe", e infatti in questo modo fa 1/3 dei punti...
The Inquirer (quindi questa è da prendere con le pinze) aveva poi sollevato la questione che la V8DUO in UT2003 facesse "stranamente" registrare prestazioni troppo elevate, rispetto a tutti gli altri game (hai visto nella rece le scandalose prestazioni in NFSU o in TR6, o con altri titoli comuni in commercio?): ciò era stato spiegato con la teoria del
mini-sampling che The Inquirer aveva coniato analizzando attentamente gli screenshot.
Secondo The Inquirer, infatti, la Volari renderizzava la scena a risoluzioni inferiori (800x600 o 640x480, mentre in UT2003 erano selezionati i 1024x768) "adattandole" poi a 1024 nel momento della visualizzazione vera e propria. Ciò ovviamente portava un visbile degrado della qualità mostrata.
Che The Inquirer avesse ragione o no, resta il fatto che anche rinominando UT2003.exe in STOCA2k3.exe le prestazioni crollavano ai livelli scandalosi degli altri game.
I filtri poi non erano attivabili da quanto erano pesanti, perciò era come non averli (saranno anche qualitativamente eccezionali, ma se fanno 3 fps medi che te ne fai?).
Vuoi sapere la mia opinione?
Se gli ingegneri XGI stanno ancora perdendo tempo sull'
ottimizzazione dei reg... ehm... dei drivers di questa scheda, stanno solo perdendo il treno.
Come nvidia si è concentrata sullo sviluppo della 6800 anzichè perder tempo con le carenze in D3D della generazione precedente (hai presente il patetico rapporto che avevano le FX 5xx0 con gli shader?), sarebbe meglio che lasciassero definitivamente perdere il driver cheating e puntino a sfornare un prodotto decente per la prossima uscita... :rolleyes:
CitazioneAllora innanzitutto devo porti le mie scuse perchè la recensione di hwinit non l'avevo letta, ed è più recente.
Numero due, questa quì di seguito è una frase presa dalla recensione di cui sopra che in parte ti conferma quello ke ti dicevo io, e in parte conferma quel ke dicevi tu riguardo ad un problema di architettura della scheda:
<>
Numero 3 : che versione di Reactor hanno usato per questa recensione, sono gli stessi del benchmark presente in questo thread?
Numero 4 : cosa sono sti Cheat nei driver?
Pentium4 3,20Ghz; Radeon 9800 Pro+Vga Silencer; Sound Blaster Audigy 2; 160GB
Maxtor S-ATA 8mb cache; 1024mb RAM;Asus P4P800Deluxe; Crative Inspire 5.1; Alim. QTEC GOLD 550W
Questo messaggio è stato aggiornato da MarcVTR il 15/09/2004 alle ore 22:00:46
La recensione di cui parli l' ho scritta io e se ti degnassi di leggere invece di guardare i grafici capiresti quello che non vuoi capire ;)
L'ho già letta tutta la tua recensione .Potevi dirlo prima no? al posto di fare l'effetto sorpresa.Questa dei cheat non la sapevo proprio, ecco perchè non ci capivamo e ritenevo lodevole le prestazioni attuali raggiunte dal driver Xgi.Infatti poi mi sono scusato con te perchè quella recensione non l'avevo ancora letta e ti avevo anche chiesto di quei "cheats". Allora credi proprio che non ci sia nessun margine di miglioramento per questa scheda? E se ci sono credi che potrà superare se ben sfruttata una 9800XT o qualcosa del genere senza cheats, e raggiungere un buon output qualitativo?
Questo messaggio è stato aggiornato da MarcVTR il 16/09/2004 alle ore 00:29:49
CitazionePotevi dirlo prima no? al posto di fare l'effetto sorpresa. Da quella recensione in poi non sono usciti più driver? Allora credi proprio che non ci sia nessun margine di miglioramento per questa scheda? E se ci sono credi che potrà superare se ben sfruttata una 9800XT o qualcosa del genere senza cheats, e raggiungere un buon output qualitativo?
No, definitvamente, assolutamente, indiscutibilmente, inconfutabilmente: NO.
La Volari, udite udite, non è NIENTE altro che la rimarchiatura degli Xabre II.
Le prestazioni sono rimaste le stesse.
Le schede sono state fatte uscire soo per far parlare del marchio.
aha, ho fatto in tempo a quotarti la risposta dell'edit :duo :duo :duo :cool: :cool::);)
Ma che cagata di schede, comunque sia non l'avrei mai comprata, volevo solo sostenere una nuova arrivata. Certo che però i suoi valori prestazionali "teorici" su carta fanno paura. Dovrebbe avere il fill rate di una X800. Probabilmente (e ripeto probabilmente, per evitare equivoci con chi ne sa sicuramente più di me) hanno avuto la bella idea del Dual GPU, ma l'architettura della scheda non permette di trarne benefici tangibili. Quindi come dice pandyno il problema sta nei driver o nell'architettura?
Nell'architettura, ma fintanto che non la proviamo su un monitor DVI, non sapremo mai se il problema è il RAMDAC che non capisce che farsene di due GPU, o se proprio le due GPU litigano fra loro.
:Deh eh, forte questa. Peccato però io in XGI ci credevo, volevo sostenerla, SOLO PERCHè SE AVEVA SUCCESSO NE BENEFICIAVANO I NOSTRI PORTAFOGLI ahah . Sai com'è, effetto concorrenza
;);)
Questo messaggio è stato aggiornato da MarcVTR il 16/09/2004 alle ore 00:47:00
Ragazzi a proposito di cheats e nvidia (che accoppiata perfetta ;)) ho sentito dire che in un file di Doom 3 ci sono delle ottimizzazioni ANTI-R300, cioè non sfruttano R300 ma R200. Se vengono disattivate si recuperano circa 10 fps, è vero?
Sì, c'è un topic in proposito su questo forum. Fai una "ricerca" e lo trovi sicuramente.
Questo messaggio è stato aggiornato da khana il 16/09/2004 alle ore 00:56:03
CitazioneMa che cagata di schede, comunque sia non l'avrei mai comprata, volevo solo sostenere una nuova arrivata.
Volevi sostenere l' impossibile...non ti preoccupare ci siamo abituati :D
La mia cultura va ben oltre la tua immaginazione, tende a infinito, come il fill-rate del vsa100
Pandyno, gentilmente, rimuovi quella firma.
CitazioneLa mia cultura va ben oltre la tua immaginazione, tende a infinito, come il fill-rate del vsa100
Dai non fare il modesto ora, si impara sbagliando
;)
Non è modestia, è polemica gratuita contro un moderatore del Forum.
non è polemica è una firma statica come tante altre ;)
La mia cultura va ben oltre la tua immaginazione, tende a infinito, come il fill-rate del vsa100
CitazioneLa Volari, udite udite, non è NIENTE altro che la rimarchiatura degli Xabre II.
Vorrei capire se questa affermazione proviene da un documento ufficiale di XGI.
Oppure è una deduziona basata su cosa?
La mia cultura va ben oltre la tua immaginazione, tende a infinito, come il fill-rate del vsa100
Hey non voglio essere causa di vostri battibecchi.
Per cambiare discorso: La causa del bollino Chiquita, si proprio quello , "The Way It's Meant To Be Played".
Quando viene apllicato all'intro di un gioco, o quando ne diventa l'incubo in quanto il gioco viene totalemente tapezzato
e ossessionato da questo per tutto il gioco ,(vedi Colin Mc Rae 2005), vuol dire che quel gioco vada meglio su Nvidia?
No, secondo me no. Perciò chiedo a voi,non è ke magari, essendo l'architettura GeForce FX "oscura", l'Nvidia sia costretta a fornire al 90% degli sviluppatori di giochi dei development kit che facciano da mediazione fra la gpu e il programmatore stesso e permettano di stra-ottimizzare, In modo tale da non far sfigurare con quel gioco la scheda rispetto ad una Ati?
Oppure, ancora meglio, non è che significhi, come in Doom 3, che ci siano sempre anti-ottimizzazioni contro Ati?
A voi la parola.
Questo messaggio è stato aggiornato da MarcVTR il 16/09/2004 alle ore 01:15:23
Comunque secondo me è ovvio che ci sia lo zampino degli xabre. Dovevano avre un punto di partenza no? più che "rimarchiatura" direi evoluzione, o involuzione che sia.
Citazionenon è polemica è una firma statica come tante altre ;)
No, non lo è. Toglila.
ma come fate a litigarvi fra di voi moderatori?
Kissà che lunga storia c'è dietro quella firma
Pandyno NON è un moderatore Forumzone.
E' un utente che sta cercando polemica gratuita in pubblica sede.
Scusa.
Ma polemica in che senso? forse pandyno ironizza sul fill rate del vsa-100?:diablo:
3Dfx forever ;)
Voodoo Scaleable Architecture will never die
Nessuno e' perfetto
E' giunto il momento di tirare le somme, riassumendo pregi e difetti del nuovo nato 3dfx:
Eternal Glory to...
L'introduzione di qualunque effetto atto ad aumentare il realismo visivo e' la benvenuta.
Supporto per tutti i tipi di compressione: e' segno che questa tecnologia e' oramai matura.
Nuovo e promettente standard di compressione gratuito.
Potente motore di antialiasing spaziale.
Fill Rate molto elevato.
Texture e profondita' di colore finalmente al pari degli altri prodotti.
Supporto per ogni libreria attualmente disponibile per il mercato consumer: DirectX, OpenGL, Glide.
Disponibilita' di una linea di prodotti professionali.
Alcuni effetti non richiedono riscrittura del codice
Nessun supporto per il Transform & Lighting hardware (* Vedi "Final Judgement" ;)
Architettura molto tradizionale
Niente T-Buffer per le schede a singolo chip.
All'aumentare degli effetti contemporanei aumentano i cicli di rendering e diminuiscono le prestazioni (dichiarazione di Sellers)
Supporto solo per la memoria SDRAM
Le texture devono essere presenti nella memoria di ogni chip, con uno spreco di memoria non indifferente
Non e' supportato l'Environment Mapped Bump Mapping,
Necessitera' di un processore davvero potente e la scalabilita' sara' tutta da verificare (alla fine fu confermata la sua grande scalabilità da menti brillanti come Amigamerlin & Co)
Prezzi piuttosto elevati.
Questo messaggio è stato aggiornato da MarcVTR il 16/09/2004 alle ore 01:40:35
Questo messaggio è stato aggiornato da MarcVTR il 16/09/2004 alle ore 01:43:15
CitazionePandyno NON è un moderatore Forumzone.
E' un utente che sta cercando polemica gratuita in pubblica sede.
1) Lo ero prima di te e me ne sono andato per ovvie divergenze che tu evidentemente non comprendi.
2)Affermazioni senza cognizione di causa sono da sempre di mio interesse.
3)La firma non la tolgo è una realtà come un altra, non proibisco a nessuno di fare altrettanto.
4) Non c' è ragione di riaccendere polemiche, se non mi sopporti sono fatti tuoi, ignorami.
CitazioneNecessitera' di un processore davvero potente e la scalabilita' sara' tutta da verificare
In effetti anche in questa discussione è venuta fuori la domanda alla risposta nella mia firma:
il fill-rate del vsa100 tende a infinito
Come i 5fps che non scattano della G400 o i colori Matrox che sono ineguagliabili
;)
La mia cultura va ben oltre la tua immaginazione, tende a infinito, come il fill-rate del vsa100
Io le divergenze le comprendo, le ascolto e cerco pure di appianarle.
Quello che non tollero è la mancanza di rispetto, la poca serietà e la convinzione di impunità.
Quella firma è offensiva nei confronti di un moderatore, non importa chi sia.
Il tuo atteggiamento è offensivo anche nei confronti miei, che sono un altro moderatore, perché metti in dubbio la mia autorità, autorità che tu hai deciso di non avere più.
Pandyno, mi conosci già abbastanza, questo è il terzo avviso. Rimuovi la firma.
- non svegliate il can che morde -
CitazioneIo le divergenze le comprendo, le ascolto e cerco pure di appianarle.
Quello che non tollero è la mancanza di rispetto, la poca serietà e la convinzione di impunità.
Quella firma è offensiva nei confronti di un moderatore, non importa chi sia.
Il tuo atteggiamento è offensivo anche nei confronti miei, che sono un altro moderatore, perché metti in dubbio la mia autorità, autorità che tu hai deciso di non avere più.
Pandyno, mi conosci già abbastanza, questo è il terzo avviso. Rimuovi la firma.
- non svegliate il can che morde -
Reputo più offensivo l' insulto rivolto alla categoria degli operai.
Ed in particolare modo agli operai in un qualche modo costretti a fare il proprio lavoro che ringraziano il Padre Eterno per quel buco.
Sono una persona molto seria, forse qualcuno dimentica che ad una settimana dal fatidico giorno mi è stato detto "non contare su di me", senso di impunità? come vorresti punirmi? col delete table?
I tuoi confronti? la tua autorità? è dovuta principalmente ad un servizio che offri.
La firma non contiene nomi per cui resta li. Se viene Glide a dirmi "togli la firma perchè è offensiva" lo faccio e stò anche zitto.
Dovremmo piuttosto parlare in privato dei miei confronti e di una certa situazione che a questo punto, visto che ti conosco bene, credo tu abbia colto al volo.
Gradirei uno scambio di opinioni matura, cosa che non è stato possibile fare, anzi è successo proprio l' opposto.
Aspetto quindi tue nuove (Icq, MSN, mail, PVT) , in caso contrario C.V.D.
La mia cultura va ben oltre la tua immaginazione, tende a infinito, come il fill-rate del vsa100
Questo messaggio è stato aggiornato da pandyno il 16/09/2004 alle ore 03:19:49
Pandyno, cambia quella firma (che non offende nessuno ma dati i precedenti recenti te la potevi di certo risparmiare) e soprattutto il tuo atteggiamento, che comincia ad essere intollerabile anche per me. Ti chiedo solo rispetto per questo forum, i suoi moderatori e, infine, per me.
Nello specifico non farmi chiudere questa discussione (di questi tempi non sarebbe una novità): facciamola proseguire solo con reply in accordo alla sua tematica.
Grazie per la collaborazione.
Ciao ciao
e anche per me :)
ciao Glide ;)
Nessuno però mi ha risposto alla questione del bollino chiquita, che avevo preso per
cambiare discorso fra khana e pandyno, ma che pur mi interessava :(
Ah , Glide posso usare questo avatar 3dfx? non ricordo bene se è usato da qualcun altro e sono ancora indeciso. Posso tenerlo?
Questo messaggio è stato aggiornato da MarcVTR il 16/09/2004 alle ore 12:06:39
Usa l'avatar che vuoi e buon posting ;)
Ciao ciao
secondo me nella maggior parte dei casi si tratta solo di pubblicità (e quindi finanziamento per la software house) che in taluni casi sfocia nel creare un prodotto ad hoc per le schede nVIDIA, le quali sicuramente godranno di un "trattamento" migliore ;)
da notare che anche ATI aveva cercato di intraprendere una via simile con il logo "Get in the game" ...l'ho visto però solo nel nn fortunatissimo titolo Will Rock... anche in quel caso le schede SPONSORIZZATE dalla 8500 in su eran ben più a suo agio delle controparti (fai conto che il gioco era più fluido sulla mia che su una geffo 4 ti 4800SE ben più potente...):D
a sto punto poi si tratta di addentrarsi in politiche di marketing a noi sconosciute...
Questo messaggio è stato aggiornato da af624726 il 16/09/2004 alle ore 13:55:15
Beh vedi Half-Life 2;)(in questo caso però più ke di ottimizzazioni per Ati si è sempre sentito dire che quei risultati sono merito dell'architettura shader Ati, e la Valve sta facendo di tutto per ottimizzare per Nvidia)
Beh se allora è così, le Ati sono veramente delle schede fenomenali e speciali, perchè con tutti i game DX9 che portano il bollino spesso macinano più frame delle controparti Nvidia. Vedi Painkiller, Far Cry, Colin 4 e tantissimi altri. Le uniche applicazioni che di questi tempi mi sembrano andare più forte su nvidia sono poche e con motivi particolari: Gun Metal (xkè stra ottimizzato nvidia); Codecreatures(perchè è un benchmark di puri poligoni e non usa ne vertex ne pixel shader, qundi è chiaro che una 5900ultra quì vada più forte di una 9800pro grazie alle sue frequenze ben più alte e a una banda passante di 6Gb più ampia); Doom 3 (grazie all'ottimizzazione Ultrashadow, che Ati per fortuna compensa con l'HyperZ III, ai driver nvidia opengl, ma sopratutto alle anti-ottimizzazioni r300 attivate); Quake 3 (per i driver opengl e per le freqenza e banda più alte a pari fascia di mercato); e poi? i vari derivati di quake 3. E basta, si contano sulle dita di una mano, anche se di sicuro ne ho tralasciato qualcuno. Ah già la mappa antalus di Ut2004. Invece la Abestos è dominio Ati.
Ecco perchè avanzavo l'ipotesi dei development kit, oltre ad averne letto qualcosa da qualke parte: o le schede nvidia sono difficili da programmare e hanno l'architettura shader inefficiente e quindi la casa fornisce i dev kit ai programmatori per ottimizzare bene il gioco e farlo girare decentemente, oppure i giochi vengono sviluppati in principio per andare molto più forte su schede nvidia indipendentemente dalla facilità di programmazione. A tal punto però significherebbe che le Ati sono talmente potenti e "amichevoli" durante la programamzione che riescono a superare Nvidia anche senza ottimizzazioni?
No, mi sembra strano
Questa cosa non sono ancora riuscito a spiegarmela
Questo messaggio è stato aggiornato da MarcVTR il 16/09/2004 alle ore 15:56:42
devi però prendere in considerazione il fatto che qualsiasi gioco col "bollino" deve per forza di cose essere funzionale anche per schede avversarie altrimenti la SH si tirerebbe la zappa sui piedi: se i giochi nn andassero su ATI o andassero ma penosamente la gente nn spenderebbe quattrini per acquistarli (ho letto di recente che sul forum della steam han proposto una poll in cui è risultato che più del 25% di schede sui PC è ATI {io speravo fossero di più:diablo:})
quindi si sbilanceranno magari sulle nVIDIA ma nn si scordano certo delle ATI (come vedi però quelle che nn hanno mercato vengono "dimenticate e abbandonate"...)
un solo gioco mi risulta sia uscito senza funzionare sulle ATI (o meglio: nelle card supportate della confezione parlava solo di nVIDIA e le consigliava vivamente) e mi sembra fosse un metal gear solid (l'ultimo credo ma potrei dire una vaccata)... hanno poi rimediato con una patch se nn ricordo male per inglobare dalla 8500 in su:D
Comunque non comprerò mai schede nvidia. A meno che non cambi atteggiamento ed esca una scheda con gli attributi.
Con la 6800 non penso ci sia stata tutta questa innovazione. I pixel shader 3.0, a che servono?
Mi ricorda tanto la questione della precisione a 32bit contro i 24 di Ati. 32bit che alla fine se attivati crollavano le prestazioni e quindi la qualità d'immaggine rimaneva a 16 bit e inferiore ad Ati (vedi far cry come sgranano le textures avvicinandoti alle pareti).
I pixel shader 3.0 invece mi sa ke quando saranno il nuovo standard di effeti programmabili nei games( e non nelle tech demo esclusivamente),le 6800 saranno un po' lentuccie. E' vero che l'NV40 è più complesso, innovativo e raffinato su carta di un R420.
Ma la verità è che Nvidia gioca sui numeri alti, fregando il pc gamer medio che si affida a un GeForce osservando su carta, Frequenze, Banda, precisione e ora anche shader con numeri sempre più alti delle controparti Ati, ma che poi sono più fumo che arrosto. Con il 6800 il caso Far Cry non sembra migliorato di molto. Sapete come aumenteranno le vendite di 6800 ora che uscirà il 3D mark 2005 con supporto pixel shader 3.0? Devo confessare che anche a me è venuta la pensata quando l'ho saputo. Ma E' tutto marketing, finchè la stragrande maggioranza dei giochi non sia PS3 io non cambio scheda
Questo messaggio è stato aggiornato da MarcVTR il 16/09/2004 alle ore 16:58:41;)
Questo messaggio è stato aggiornato da MarcVTR il 16/09/2004 alle ore 17:03:18
CitazionePandyno, cambia quella firma (che non offende nessuno ma dati i precedenti recenti te la potevi di certo risparmiare) e soprattutto il tuo atteggiamento, che comincia ad essere intollerabile anche per me. Ti chiedo solo rispetto per questo forum, i suoi moderatori e, infine, per me.
Nello specifico non farmi chiudere questa discussione (di questi tempi non sarebbe una novità): facciamola proseguire solo con reply in accordo alla sua tematica.
Grazie per la collaborazione.
Ciao ciao
Ci tengo a precisare che non voleva essere polemica.
Ciao Glide.
sul fatto degli shader 3.0 anche io la pensavo così, ma vedendo con quale rapidità ATI stia "pensando" ad una nuova scheda per il marzo prossimo... :(
A marzo :eek:?
In questo modo,implementando anche Ati il PS 3, ci sarà vero una rivoluzione nei giochi.
Ma daiii l'ho comprata ad a aprile la 9800pro e già dopo un anno non potrò godermi i games appieno!
Solo per i Ps 3.0 mah!
Questa è colpa di Nvidia, perchè Ati sosteneva che attualmente tutto quello che si può fare con i Ps 3.0 è ottenibile con i P.S. 2. Ed è vero perchè la stessa patch pixel shader 3.0 per Far Cry apporta delle modifiche all'aspetto del gioco, a mio parere, ottenibili con le card dx9.0 pixel s.2.
Questo dimostra che nel marketing è ancora Nvidia a dettare leggi purtroppo, grazie ai suoi soldini e alla fama.
Perchè non fare durare una scheda per PC quanto una console? In modo da trarne il 110% delle prestazioni? vedi con la playstation 2 che miracoli ci fanno ancora adesso che siamo ai suoi sgoccioli!
Peccato la 9800pro o una 5950ultra sono schede che avrebbero ancora lunga vita davanti a se. Spero solo che la maggior parte dei futuri giochi darà la possibilità di poter giocare in Pixel Shader 2.
Comunque io,la 9800pro l'ho già spremuta poligonalmente al 100% ;). Come?
Scarichi la tech demo Ruby, (anche se non c'è ne fisica e ne intelligenza artificiale e quindi in un vero game non si potrebbe ottenere quella grafica), che è pensata per una scheda da circa 700 milioni di poligoni al sec, scarichi la patch che bypassa il 3dc e gli shader più complessi e penso proprio che quella scheda(380 milioni p.sec) sia al suo limite. 28 frame al sec:D, ma è davvero bella come demo, sembra un finale in CG di tekken 4.
Sarei curioso di vedere come si comporta una 6800 in questa demo, e benchare X800XT e 6800Ultra, ovviamente con la patch che rende la demo compatibile con tutte le schede dx 9.0.
Appena mi arriva la 5900xt/1100XP a 5950Ultra farò un confronto qualitativo-prestazionale e lo publicherò.
SCUSATE IL ROMANZO
Questo messaggio è stato aggiornato da MarcVTR il 16/09/2004 alle ore 18:07:47
io fossi in te nn mi spaventerei per i prossimi giochi, hai pur sempre una signora scheda!!! guarda, con la mia sono al limite e dovrò cambiarla per Natale, ma la tua durerà ancora un annetto buono se ogni tanto ti accontenterai di spegnere i filtri o giocare a 1024 al posto di 1280 o più su:D ;)
se si desse retta a Loro bisognerebbe spendere ogni 9 mesi 500€ solo di video...:eek:
non vado mai oltre 1024x768, rifiuto la profondità di colore a 16bit, esigo un minimo di anisotropico nei giochi che ne mostrano esigenza, solo ogni tanto mi degno di attivare l'AA non oltre i 2x, perchè so che prima o poi non potrò più attivarlo per giocare decentemente.
Mi accontenterò anche di giocare a 640x480, tanto in finestra si vede forse meglio del 1024x768 ;)
nn credo tu debba scendere a tanto!! nn ho mai giocato neanche con la mia a 640!! abbi fiducia nella tua Scheda!!! :D
CitazioneLa V8 ULTRA in principio non era della fascia della 9600se che va quanto una 9200
Pandyno cheats o non cheats, architettura demente o non demente, di sicuro quanto una 9200 non ci va:
http://www.tomshw.it/graphic.php?guide=20041004&page=vga_charts-04
3D Mark 03: GeForce FX 5800 = 4871
Volari Duo V8 Ultra= 4922
Aquamark: GeForce FX 5950 ultra= 45180
Volari Duo V8 Ultra= 45082
Radeon 9800Pro = 44707
Anche se eliminassero ogni traccia di cheats, non penso proprio che scenda al livello di una 9200!
In molti altri giochi però va in crash:D
Questo messaggio è stato aggiornato da MarcVTR il 07/10/2004 alle ore 11:47:15
Continuo a ripeterti che la v8ultra da documenti *Ufficiali* XGI deve essere messa in competizione con la 9600SE in caso di comparativa.
Ti sarei grato se non riportassi all' attenzione discussioni concluse da tempo.
Grazie.
CitazioneContinuo a ripeterti che la v8ultra da documenti *Ufficiali* XGI deve essere messa in competizione con la 9600SE
Vabè questo si sapeva.
Io parlavo di altri modelli sia per Xgi che per Ati.
Comunque l'intenzione non era riportaqre a galla "vecchi" discorsi ma segnalare una Nuova prova comparativa con le volari.
Fatta con una bella CPU:D
non te la prendere eh, scherzo ;)