PDA

Visualizza Versione Completa : photoshop e GPU



sharky
27-05-08, 20:14
Carissimi, leggendo qua e la mi sono ho trovato un paio notizie, e come al mio solito la fantasia ha galoppato.
Perdonatemi ma non posso fare a meno di immaginare futuri sviluppi e benefici in ogni settore informatico.

parlo appunto di un articolo letto su tom's hardware. questo è il link:

http://www.tomshw.it/news.php?newsid=14141[/URL]

ho trasalito leggendo la notizia e ho deciso di condividerla con voi.
Vi immaginate in futuro se tramite la tecnologia cuda (possono accedervi dalle geforge 8-9 e in seguito) i sw di rendering un giorno potranno gestire le potenzialità delle unità di calcolo tesla della nv o più semplicemente alla geforge nel nostro pc??
La nuova nvidia nv280 ha una motore di calcolo a dir poco straordinario, in un test condotto (anche se di parte...) da folding@home dichiara:


New NVIDIA GeForce GTX280 Three Times Faster than HD 3870 in Folding@Home
Just a couple days ago, we informed you that NVIDIA had joined the Folding@Home team (http://www.tomshw.it/news.php?newsid=14141). However, at the time, benchmarks for this new client were unavailable. I am now happy to inform you that (internal) benchmarks are available for your viewing pleasure. The rather large green bar was achieved using the new NVIDIA GPU core, the GTX280. As far as exact numbers go, this sucker can fold at 500 mol/day, which is much higher than the Radeon HD 3870 numbers (170 mol/day) (*), five times higher than PS3 numbers (100 mol/day), and astronomically higher than the average computer numbers (4 mol/day). Whether or not this translates into actual gaming performance is yet to be seen, however, it's pretty hard to imagine how something so powerful wouldn't bring back some respectable FPS in games like Crysis.

un'altra fonte:
[URL]http://www.pcper.com/comments.php?nid=5679

lascio a voi le conclusioni, comunque sta di fatto che un po tutti si stanno muovendo verso una direzione, ovvero quella di distribuire il calcolo a più cpu, unità semplici interconnesse per incrementare la potenza elaborativa. anche mamma intel sta pensando di compattare su un singolo die tante cpu atom, spero che questa corsa al rialzo delle prestazioni non venga confinata ad ambiti ristretti, ma ci sia un'apertura maggiore verso il grande pubblico, così da ottenere dei risvolti davvero interessanti.

Questo, un po mi riporta ai bei tempi di Amiga, quando si pensava di incrementare la potenza elaborativa, con delle cpu transputer..... eh! bei tempi!!!

Perdonate questo mio delirio!

(*)http://it.wikipedia.org/wiki/Mole

Roy Bellingan
31-05-08, 17:23
Ciao, ho seguito con molta passione lo sviluppo prima del CG (c for graphic) della nvidia e poi del Cuda, ho scritto pure un pò di codice e fatto bechmark, ma poi mi sono fermato, sai perchè ?
Le latenze, per accedere alla Ram della SV servono anche 400 / 600 cicli di clok (fonte manuale della G8800), davvero troppi, e la cache è quasi inesistente...
Alcuni tipi di calcolo possono essere ottimizzati, dipende da quanto sia predicibile il flusso di dati, in photoshop se applico una maschera e dò un comando l'applicazione sà che deve far girare un pezzo di codice su un certo insieme di dati in un certo ordine, altri necessitano ancora delle CPU (o magari del CELL della IBM che adesso è montato sulle PS3, quello si che và veloce!) perchè sanno cosa eseguire ma non sanno dove (le ombre in raytracing, ad ogni rimbalzo c'è di solito una texture differente... che non è precalcolata ma da calcolare sul momento, quindi leggi una Bitmap che hai scoperto in quel momento di dover usare, poi nuovo raggio nuova corsa nuovi rimbalzi eccetera)
Credo di non aver messo bene le parentesi...
Per confortarti ti segnalo il progetto LarraBee della Intel, molti (e per molti intendo anche 32) core CPU style messi assieme...
http://it.wikipedia.org/wiki/Larrabee

sharky
31-05-08, 22:49
hum.... sgratt...sgratt.... molto interessante!

anche se non credo che la intel possa o riesca a raggiungere molto presto o così facilmente il know-how della ati o della nvidia, sta di fatto che comunque la nvidia ha gia in progetto una cpu....e chissà, ne vedremo delle belle!!!

Comunque, mi fa piacere tutto questo corri-corri verso le cpu altamente computazionali, alla fine ne possiamo beneficiare solo noi utenti finali.

Roy, comunque ti faccio notare che gia esistono sw che sfruttano la GPU come motore (con pecche che certamente tu hai fatto notare) di rendering per la GI (es. parthenon renderer, o prossimamente kerkythea), qindi se la adobe si sta muovendo in questo settore vuol dire che ha subodorato delle potenzialità inaspettate.

PS tieni presente che il CELL di PS3 non è altro che una versione castrata dei mainframe della ibm....:eek:

Athmosfera
31-05-08, 23:09
io di queste cose capisco poco, però la nvidia mesi fa ha comprato la Mental Images (quella di Mental Ray)
.... cosa vogliono fare assiem non so.. comunque.. :)

sharky
31-05-08, 23:39
io di queste cose capisco poco, però la nvidia mesi fa ha comprato la Mental Images (quella di Mental Ray)
.... cosa vogliono fare assiem non so.. comunque.. :)

Ah! questa succosa news mi era sfuggita!

hehehehe:evil:

me lo posso solo immaginare... ;)

Roy Bellingan
01-06-08, 09:31
Anche a me era sfuggita come news, certo se avessero acquisito la Next Limit o la Feversoft avrei gioito dal profondo, in fondo il mental ray è bla bla bla, ma non è ... vivo...
Almeno io li definisco così i motori unbiased, mi producono quasi sempre delle imagini "vive" se poi le salvi in HDR e poi le tonemappizzi.. ancora di più!