3dfx Article

Aperto da re-voodoo, 26 Settembre 2002, 21:10:11

Discussione precedente - Discussione successiva

0 Utenti e 1 Visitatore stanno visualizzando questa discussione.

Neo

Il ruolo di 3dfx in nVidia






David Kirk è, dal 1997, Chief Scientist di nVidia, posizione che lo vede fortemente impegnato in tutto quello che ha a che vedere con lo sviluppo di nuove tecnologie per la grafica 3D. Lo scorso 29 Aprile ho avuto l'opportunità di incontrarlo a Milano, in occasione di una tappa di un tour europeo con vari giornalisti, e di scambiare alcune domande in un colloquio a due.

Quale persona informata di tutti i prossimi sviluppi tecnologici e di mercato di nVidia, Dave Kirk è la persona ideale da intervistare per un giornalista; questo, però, implica il fatto che sia molto difficile riuscire a ricuperare da lui alcune informazioni che non vadano necessariamente a toccare NDA (Non Disclosure Agreement), accordi tra produttori che non permettono di discutere di vari temi chiave. In termini concreti, da Dave non sapremo nulla sul nuovo chip nVidia NV30, fatta eccezione quello che la stessa nVidia vuol far sapere su questa nuova architettura.

 

Quale è stato il contributo dei tecnici 3dfx nei progetti NV20 ed NV25?

Acquisendo 3dfx abbiamo introdotto in nVidia numerose nuove tecnologie da quest'ultima sviluppate; vari ex tecnici di 3dfx sono, inoltre, entrati a far parte del team di sviluppo e ricerca di nVidia, portanto il loro contributo. Per questo motivo, mi risulta molto difficile dire quale sia il contributo specifico di ex tecnici 3dfx nel progetto NV25, mentre in quello NV20 il loro ingresso in azienda è avvenuto in un periodo nel quale il progetto era ormai completamente concluso (Inverno 2000).

Mi piace pensare che in nVidia ogni tecnico faccia parte di un unica grande famiglia, quindi che i contributi di ciascuno siano fondamentali per il raggiungimento dell'obiettivo comune, a prescindere dal background professionale.

Quale è stato il peso dei progetti futuri ai quali 3dfx stava lavorando nella definizione dei vostri chip video?

Non posso rivelare molte informazioni sui progetti ai quali 3dfx stava lavorando nel momento in cui, nell'autunno 2000, è stata acquisita; indubbiamente si trattava di tecnologia molto interessante, che partiva da punti differenti dai nostri di quel periodo. Indubbiamente entrare a contatto con quello sviluppo tecnologico ci ha permesso di migliorare ulteriormente il nostro lavoro. Sicuramente quanto abbiamo adesso, il chip GeForce 4, è a un livello superiore di quanto 3dfx sarebbe stata in grado di fornire, ovviamente senza i problemi finanziari ai quali è andata incontro, e meglio ancora di quanto da soli saremmo stati in grado di sviluppare.

Cosa c'è attualmente, di 3dfx all'interno delle schede GeForce 4? Sicuramente gli studi di 3dfx in campo di Full Screen Anti Aliasing si fanno molto sentire.

Indubbiamente alcune delle implementazioni del Full Screen Anti Aliasing che vediamo attualmente nelle schede GeForce 4 e GeForce 4 MX sono "figlie" degli ex tecnici 3dfx; oltre a questo, anche il video processing engine del chip GeForce 4 MX è stato sviluppato a partire da tecnologia 3dfx.
NV30 e DirectX 9
 


I chip GeForce 3 e, soprattutto, GeForce 4 hanno permesso di ottenere livelli prestazionali impensabili sino a pochi anni fa; con numerosi titoli è ora possibile giocare in modo fluido alla risoluzione di 1600x1200 @ 32bits. Garantire più frames al secondo alle risoluzioni elevate è indubbiamente un obiettivo interessante, ma non quello finale: qual è, al momento, l'obiettivo di nVidia con l'attuale e la futura generazione di chip video 3D? O, detto in altro modo, cosa volete ottenere con il chip NV30?

Come ben noto, la serie di chip GeForce 4 Ti ha permesso di guadagnare un considerevole margine prestazionale con Full Screen Anti Aliasing rispetto alla precedente generazione di chip video nVidia, la serie GeForce 3. E' ora possibile abilitare il FSAA anche a risoluzioni elevate, con un impatto sulle prestazioni velocistiche non eccessivamente elevato e, comunque, tale da salvaguardare fluidità delle scene e giocabilità.
Con la prossima generazione di chip video intendiamo proseguire questa direzione, offrendo la possibilità di abilitare il Full Screen Anti Aliasing a tutte le risoluzioni ottenendo un impatto complessivo sui frames al secondo generati il più ridotto possibile.

Negli ultimi anni la risoluzione media di gioco è via via aumentata, sino ad ottenere con le ultime generazioni di schede video una elevata fluidità alla risoluzione di 1600x1200. Il nostro obiettivo, a questo punto, non è quello di offrire un superiore quantitativo di pixel, quanto di aumentare la qualità complessiva di ogni pixel visualizzato.

La realtà che ci circonda e che cerchiamo di riprodurre con le nostre GPU è estremamente complessa; per questo motivo ogni pixel che riproduciamo con le nostre GPU dev'essere trattato e arricchito in modo da riprodurre nel modo più fedele possibile la realtà. L'obiettivo di nVidia con le future generazioni di chip video è proprio quello di arrivare ad un livello di realismo, nella riproduzione 3D, pari a quanto si può oggi vedere in film d'animazione quali Toy Story e Final Fantasy, ovviamente tutto in real time e a schermo pieno.

Quale sarà il memory controller del chip NV30? Si vocifera di un'architettura a 256bit per il bus memoria.

E' evidente che non possa entrare in dettagli tecnici su quello che sarà il bus memoria del chip NV30, ma voglio risponderti comunque partendo con una constatazione. Un bus memoria più ampio permette di ottenere bandwidth della memoria video estremamente elevate, ma a un prezzo: un'architettura a 256bit è molto complessa, quindi costosa da costruire al momento attuale. Le schede video di fascia alta hanno costi molto elevati già oggi, chiedere un prezzo superiore per integrare un bus memoria a 256bits mi pare eccessivo, almeno al momento.

Con questo, però, non voglio dire che un bus memoria di quest'ampiezza sia necessariamente qualcosa di sbagliato: il vero problema, a mio avviso, è capire se tale tecnologia sia oggi richiesta ed utilizzata. Mi spiego: se per migliorare la qualità dell'esperienza 3D cerchiamo non di generare più pixel, ma di interagire su ogni singolo pixel in modo da renderlo il più vicino possibile alla realtà (not more pixels, but better pixels), necessitiamo di GPU sempre più complesse e veloci, non di più elevata bandwidth della memoria video. Se il numero di pixel non varia, infatti, un quantitativo addizionale di bandwidth video non permette di ottenere un miglioramento qualitativo dell'immagine generata; aiuterebbe in termini prestazionali se si usassero più pixels, ma al momento con la risoluzione di 1600x1200 @ 32bits presa come parametro di riferimento per i giochi 3D non vediamo il bisogno di avere più bandwidth della memoria video rispetto a quanto oggi possiamo fornire con la scheda GeForce 4 Ti4600.

Almeno un vostro concorrente presenterà, prossimamente, una soluzione video di fascia alta dotata di bus memoria a 256bits, con una conseguente bandwidth della memoria video molto elevata.

Probabilmente questo nostro concorrente ha optato per una soluzione di questo tipo non pensando, a mio avviso, ad ottenere pixels migliori, quanto a fornirne un quantitativo sempre maggiore. E' una questione di approcci differenti e, personalmente, credo il nostro sia quello vincente.

Credi pertanto sarà possibile avere memorie DDR con frequenze di lavoro molto elevate nei prossimi mesi? Il limite attuale è tra 700 e 750 Mhz, con i più recenti chip Samsung da 2,6ns che ancora devono fare il loro debutto sul mercato.

Si, credo che con le prossime generazioni di schede video verranno utilizzate memorie più veloci. Il problema, comunque, non è tanto quello di avere una bandwidth della memoria video elevata, quanto come utilizzarla al meglio.

Hardware Displacement Mapping nelle DirectX 9: cosa ci puoi dire?

Con il nome di DirectX 9 si identifica comunemente la nuova generazione di API Microsoft; ovviamente in nVidia sappiamo molte cose su queste nuove API ma, avendo firmato un NDA con Microsoft, mi è impossibile dirti di più. (nota: segue un prolungato sorriso che invita a formulare la domanda successiva ;))
nVidia ha seguito la strada tracciata da Matrox, implementando nelle proprie schede video il supporto a 2 monitor. Prevedete particolari evoluzioni della tecnologia nView e, in particolare, il futuro supporto a 3 display con una scheda video di fascia desktop?

Credo che nView rappresenti un'interessante feature dei nostri più recenti prodotti e per questo motivo abbiamo scelto di implementarla nella gamma GeForce 4. Credo, però, che il nostro focus principale non sia rivolto alle soluzioni multimonitor. Per questo motivo non vedo interesse a sviluppare supporto a 3 monitor contemporanei: ci sarà sicuramente un mercato interessante per questo genere di prodotti ma a mio avviso rimane una nicchia molto piccola e definita del mercato. nVidia, comunque, produce una scheda video professionale con supporto simultaneo a 4 monitor, pertanto il nostro interesse a configurazioni multimonitor va oltre le piattaforme consumer e desktop spostandosi anche verso il mercato professionale.

Una critica che è stata fatta molto spesso in passato alle schede video nVidia è quella della ridotta qualità d'immagine con applicazioni 2D, soprattutto alle risoluzioni più elevate. A onor del vero, con le schede GeForce 4 Ti e GeForce 4 MX la situazione è notevolmente migliorata, ma come ben sai non c'è mai limite al meglio. Per quale motivo quello della qualità 2D rappresenta, a tutt'oggi, un limite delle schede nVidia?

nVidia non costruisce schede video ma chip video; nei nostri chip video, in modo particolare per quelli della famiglia GeForce 4, la parte che viene utilizzata per la generazione delle immagini 2D è di ottima fattura, non c'è nulla che contribuisca a peggiorare l'immagine. Il segnale, però, è fortemente influenzato dai componenti che vengono montati sulla scheda video: i nostri partner scelgono condensatori, transistor e altri componenti in modo autonomo, anche se nVidia rilascia delle guide di riferimento per cercare di indirizzare al meglio i produttori e ottenere la migliore qualità finale possibile. Questo margine di scelta, ovviamente, fa si che alcune schede video GeForce 4 abbiano una qualità d'immagine, con grafica 2D, nettamente superiore ad altre di differenti produttori, pur se basate sullo stesso chip video.

Per cercare di fornire ai nostri utenti un prodotto di qualità abbiamo lanciato un programma con i principali produttori di schede video basate su chip nVidia, in modo da aiutarli a costruire schede video che massimizzino la qualità, soprattutto con riferimento alla riproduzione 2D ad alta risoluzione.
 In occasione del Cebit 2002 di Hannover, lo scorso mese di Marzo, sono stati mostrati sistemi Socket A basati su chipset nForce con supporto alle memorie DDR333 e DDR400. Quando vedremo queste soluzioni sul mercato?

Gli annunci del Cebit sono serviti, in primo luogo, a mostrare come nVidia sia allineata agli altri produttori di chipset Socket A, quindi pronta a supportare ed utilizzare memorie DDR333 e DDR400. Dal mio punto di vista, però, il vero ostacolo alla diffusione di piattaforme con queste caratteristiche è dato proprio dalle nuove memorie: ci sono, al momento, ancora alcuni problemi legati sia al riconoscimento dei vari standard da parte del JEDEC, sia ottimizzazioni dei moduli e delle piattaforme per operare a frequenze di lavoro così elevate.

Da parte nostra abbiamo mostrato che, tecnologicamente, il supporto ai nuovi standard per le memorie DDR c'è e che, pertanto, la piattaforme nForce rimane ai vertici del mercato dei chipset Socket A. Sarebbe più utile chiedere al JEDEC se e quando le memorie DDR400 diventeranno uno standard per il mercato.

Ci saranno piattaforme Pentium 4 basate su architetture nForce? L'architettura memorie a due bus paralleli si presta molto bene all'impiego con questo processore.

Abbiamo stretto nel corso dell'ultimo anno un legame molto forte con AMD; consideriamo AMD un partner importantissimo, con il quale sarà possibile in futuro costruire soluzioni estremamente interessanti. E' vero che sarebbe molto interessante verificare le potenzialità della piattaforme nForce con processori Pentium 4 ma al momento abbiamo scelto di dedicarci esclusivamente a sistemi AMD.

Detto in altro modo, da parte vostra c'è interesse versouna piattaforme nForce con processore Pentium 4 ma le royalties che Intel chiede per l'utilizzo del Bus Pentium 4 sono un ostacolo difficilmente superabile?

Non posso commentare molto in merito ma indubbiamente questo è un grosso ostacolo. In ogni caso, se vedremo la possibilità di un chipset nForce per processori Pentium 4 e ci saranno margini di accordo con Intel, sicuramente questa piattaforma farà il suo debutto sul mercato.

Alcuni rumors hanno ventilato la possibilità di avere una piattaforme Hammer con chipset nForce. Il controller memoria è integrato nel Core della cpu, che cosa nVidia può proporre come segno distintivo?

Come hai ben detto, si tratta di rumors. Qualora tu avessi la risposta a questa domanda, che personalmente non ho, ti considererei estremamente fortunato e, soprattutto, potenzialmente molto ricco. (segue fragorosa risata mia e di Dave Kirk ;))






Scritto Da - davide on 02 Novembre 2002  18:26:29