PDA

Visualizza Versione Completa : Consiglio Workstation



epasinet
04-12-08, 18:10
Salve ragaz, stò valutando l'acquisto di una workstation per Lightwave e ho bisogno di consiglio per alcuni componenti a causa della mia scarsa esperienza in questo genere di computer.
La CPU è il mio primo dubbio; meglio uno Xeon quad a 3,16Ghz o due Xeon quad a 2,33Ghz? Immagino che come potenza di calcolo i due Xeon siano migliori ma mi interessava capire durante il lavoro con modeler o layout quale sia migliore la reattività tra le due soluzioni.
La Scheda video è il secondo dubbio; non ho mai avuto la fortuna di usare un pc con una Quadro o una FireGL e tanto meno riesco a rendermi conto che differenza ci sia a lavorare ad esempio, con una FireGL V3600 rispetto una FireGL V7700!?!?

Una grosso grazie a chiunque voglia discutere sull'argomento e possa darmi qualche consiglio per spendere la meglio stà bella botta di soldi!

Enrico

Bruscolì
04-12-08, 23:55
In ufficio mi è appena arrivato un dell dual xeon a 2,33 ghz.
Sono rimasto soddisfatto della marca, assistenza on site per 3 anni, silenziosissimo e il cabinet è un carro armato ....
Per la scelta, del o dei processori, è un bel dilemma. Sicuramente con una singola cpu ma con frequenza maggiore è tutto un pò più reattivo ...
... se anche ora hai un processore con più core, puoi semplicemente aprire il task manager mentre lavori per constatare che nel lavoro di modellazione lightwave utilizza un solo core ... ma si sa ... i software sono in continua evoluzione, quindi io ho optato per due xeon con velocità più bassa, dato che non penso che lo cambierò l'anno prossimo.

... la marca te la consiglio sicuramente !!

Fulvio

marconwps
05-12-08, 00:30
In ufficio mi è appena arrivato un dell dual xeon a 2,33 ghz.
Sono rimasto soddisfatto della marca, assistenza on site per 3 anni, silenziosissimo e il cabinet è un carro armato ....
Per la scelta, del o dei processori, è un bel dilemma. Sicuramente con una singola cpu ma con frequenza maggiore è tutto un pò più reattivo ...
... se anche ora hai un processore con più core, puoi semplicemente aprire il task manager mentre lavori per constatare che nel lavoro di modellazione lightwave utilizza un solo core ... ma si sa ... i software sono in continua evoluzione, quindi io ho optato per due xeon con velocità più bassa, dato che non penso che lo cambierò l'anno prossimo.

... la marca te la consiglio sicuramente !!

Fulvio


Adesso capisco mi sembrava strano che con quattro core andasse cosi piano ... non li usa :( ma si decidono a svecchiare Lightwave o no??

Saluti Stefano

epasinet
05-12-08, 08:13
In ufficio mi è appena arrivato un dell dual xeon a 2,33 ghz.
Sono rimasto soddisfatto della marca, assistenza on site per 3 anni, silenziosissimo e il cabinet è un carro armato ....
Per la scelta, del o dei processori, è un bel dilemma. Sicuramente con una singola cpu ma con frequenza maggiore è tutto un pò più reattivo ...
... se anche ora hai un processore con più core, puoi semplicemente aprire il task manager mentre lavori per constatare che nel lavoro di modellazione lightwave utilizza un solo core ... ma si sa ... i software sono in continua evoluzione, quindi io ho optato per due xeon con velocità più bassa, dato che non penso che lo cambierò l'anno prossimo.

... la marca te la consiglio sicuramente !!

Fulvio

Grazie Fulvio era proprio quel che volevo sapere! Immaginavo che la frequenza avesse ancora la sua importanza. Me ne son accorto anche usando Windows che alla fin fine è più veloce e reattivo con un processore con frequenza più alta rispetto ad un processore con minor frequenza ma più core! Quindi in conclusione bisogna cercare di prendere un computer dual quad con la frequenza più alta che il portafoglio ci consente!!

Per la scheda video nessuno sà dirmi qualcosa? Tu fulvio sul tuo Dell che scheda video hai preso?
Io ad esempio ad oggi modello con una umile GeForce 8500GT 256MB e non son mai riuscito a capire quando questa diventava un collo di bottiglia nel visualizzare un certo numero di poligoni?!?! Cosa mi consigliate??

Grazie

epasinet
05-12-08, 08:20
Sapete qual'è l'inghippo? Il solito annoso problema del ritorno economico sulla spesa fatta.
Come già più volte ho letto su questo forum, comprare una workstation ha un senso poichè offre prestazioni ed affidabilità impareggiabili ma invecchia molto rapidamente e quindi penso che ha senso acquistarla son nel caso specifico in cui si ha un volume di lavoro tale da ammortizzarla in breve tempo! Infatti sappiamo benissimo che dopo 2 o 3 anni sarà una macchina obsoleta di nessun valore.
Mi incuriosisce molto il servizio di noleggio di Dell ma non capisco come funzioni, infatti loro scrivono noleggio per 36mesi che messo così pare più un finanziamento rateizzato più che un noleggio! Sarebbe interessante poter avere il computer a noleggio e poterlo rientrare anche dopo solo un anno e mezzo e magari noleggiarne un altro nuovo! Qualcuno sà qualcosa in merito a stà storia?

Bruscolì
05-12-08, 10:08
Adesso capisco mi sembrava strano che con quattro core andasse cosi piano ... non li usa :( ma si decidono a svecchiare Lightwave o no??

Saluti Stefano

Non so quanto siano attendibili quei grafici del task manager ... non è che gli altri core hanno una linea piatta, ogni tanto si muovono, comunque è evidente che non sono sfruttati come dovrebbero ...
... magari sbaglio però non credo che sia diverso per gli altri software ...



Grazie Fulvio era proprio quel che volevo sapere! Immaginavo che la frequenza avesse ancora la sua importanza. Me ne son accorto anche usando Windows che alla fin fine è più veloce e reattivo con un processore con frequenza più alta rispetto ad un processore con minor frequenza ma più core! Quindi in conclusione bisogna cercare di prendere un computer dual quad con la frequenza più alta che il portafoglio ci consente!!


Non saprei, dipende dal budget.
Nella discussione dei test del cinebench 10 ho notato che Fire ha postato dei test con un quad core abbastanza spinto, ora vedo di fare dei test anche io, così puoi regolarti.



Per la scheda video nessuno sà dirmi qualcosa? Tu fulvio sul tuo Dell che scheda video hai preso?


... come scheda video ho una nvidia quadro FX 1700.
Non saprei giudicare effettive differenze del singolo componente perchè sono passato da un dual core con SO a 32 bit ad dual xeon con SO a 64 bit quindi è ovvio che va tutto meglio ma difficile entrare nello specifico.




Sapete qual'è l'inghippo? Il solito annoso problema del ritorno economico sulla spesa fatta.
Come già più volte ho letto su questo forum, comprare una workstation ha un senso poichè offre prestazioni ed affidabilità impareggiabili ma invecchia molto rapidamente e quindi penso che ha senso acquistarla son nel caso specifico in cui si ha un volume di lavoro tale da ammortizzarla in breve tempo! Infatti sappiamo benissimo che dopo 2 o 3 anni sarà una macchina obsoleta di nessun valore.
Mi incuriosisce molto il servizio di noleggio di Dell ma non capisco come funzioni, infatti loro scrivono noleggio per 36mesi che messo così pare più un finanziamento rateizzato più che un noleggio! Sarebbe interessante poter avere il computer a noleggio e poterlo rientrare anche dopo solo un anno e mezzo e magari noleggiarne un altro nuovo! Qualcuno sà qualcosa in merito a stà storia?

Il discorso della spesa è soggettivo.
E' ovvio che per chi ci lavora è visto come un'investimento mentre per un uso hobbystico tutto dipende dal valore che si da a quella passione.
E' un pò come le automobili, c'è gente che ha auto di lusso solo per andare a fare la spesa o addirittura tenerle in garage ... è tutto soggettivo !!

Tra l'altro la vita dei computer l'hai allungata anche troppo ... io li vedo obsoleti dopo qualche mese ma dipende anche dal significato che si da al termine, perchè se non si ha bisogno di software di ultima generazione i computer possono durare per molti anni.

Fulvio

epasinet
05-12-08, 13:04
Cmq è difficile!
Sull'argomento c'è poca informazione e poca esperienza. Ad esempio per la scelta della scheda video vedo che su Treddì vendono workstation con la Quadro FX1700 che è una soluzione di fascia medio-bassa da 400€ circa! Vedendo alcune recensioni in rete pare che la FireGL V7700 spopoli come rapporto prezzo prestazioni ed effettivemente supera abbondantemente le pretazioni di una FX1700!
Non metto in dubbio che una Fire GL V7700 abbia prestazioni tali da muovere in preview molti più poligoni di una più economica Quadro FX1700 ma perchè in Treddì restano fermi sulla FX1700? Forse perchè il margine della FX 1700 è così alto che difficilmente noi modelleremo così tanti poligoni da metterla in crisi? Oppure lavorare con una Fire GL V7700 ci cambierebbe la vita?

E' difficile

g4dual
05-12-08, 14:08
Per come è studiato LW ora, avere una scheda grafica di classe "professionale" è totalmente inutile, con gli stessi soldi di una FX1700 ci si piglia il Top di gamma nVidia ... la GTX280 ... anni luce avanti, imparagonabile addirittura ... son comunque dell'avviso che chi ha i soldi li spende come vuole ;)

epasinet
05-12-08, 14:16
Per come è studiato LW ora, avere una scheda grafica di classe "professionale" è totalmente inutile,

Ma perchè dici che LW non sfrutta la schede video professionali?? Non lavora in OpenGL??

con gli stessi soldi di una FX1700 ci si piglia il Top di gamma nVidia ... la GTX280 ... anni luce avanti, imparagonabile addirittura ... son comunque dell'avviso che chi ha i soldi li spende come vuole ;)

Sò che l'architettura e il bus di una Fx1700 è imbarazzante in confronto ad una GTX280 ma da come scrivi pare che per lavorare in 3D sia meglio acquistare una scheda "gamer" piuttosto che una scheda "professionale". Perchè dici così?

Bruscolì
05-12-08, 14:59
Sò che l'architettura e il bus di una Fx1700 è imbarazzante in confronto ad una GTX280 ma da come scrivi pare che per lavorare in 3D sia meglio acquistare una scheda "gamer" piuttosto che una scheda "professionale". Perchè dici così?

Io ho preso una quadro perchè era compresa nella configurazione altrimenti non l'avrei presa ...
... ho sempre utilizzato geforce e sono dell'idea che sono i giochi i più avidi di risorse, quindi sicuramente non si sbaglia seguendo questo mercato !!

... poi, addirittura, alcune quadro e geforce sono identiche, cambiano solo i driver !!

Fulvio

g4dual
05-12-08, 15:26
LW non sfrutta le schede grafiche professionali, perchè queste sono appositamente progettate per eseguire "operazioni" che LW non compie. Il fatto che LW utilizzi OpenGL è ininfluente in quanto tutte le schede grafiche nVidia, dalle più scrause alle top di categoria (sia professionali sia game) supportano le openGL ... la differenza sta proprio nel set di istruzioni particolari che sono dotate le schede professionali e che LW non utilizza, tutto qua. Perchè, come ha detto giustamente Bruscolì, le schede grafiche professionali sono identiche in tutto e per tutto a quelle da gioco (a parità di chip ovvio) con la differenza dei driver e di particolari "circuiti" disabilitati nelle schede da gioco: a riprova di ciò, ci son state schede nVidia della vecchia scuola (dalla serie 6xxx in giù, mi pare) che tramite RivaTuner potevano essere convertite in tutto e per tutto in schede grafiche professionali ... la pacchia è durata fin tanto che la nVidia ha deciso di tagliare via Laser i ponticelli di tali circuiti (invece che disabilitarli via software) ...

3dl
05-12-08, 16:17
Io ti suggerisco un sistema con un processore intel I7 940 e almeno 8 GB di ram a bordo...la scheda grafica è praticamente ininfluente al momento...per cui una buona scheda gamer è più che adeguata....:)

g4dual
05-12-08, 16:45
Io ti suggerisco un sistema con un processore intel I7 940 e almeno 8 GB di ram a bordo...la scheda grafica è praticamente ininfluente al momento...per cui una buona scheda gamer è più che adeguata....:)

il core i7 940 è uno specchio per le allodole, per quello che offre costa decisamente troppo. Sulla ram il discorso è più delicato. I nuovi Intel i7 hanno il controller della ram integrato nel core, e non più sulla scheda madre, quindi si è obbligati ad utilizzare le DDR3, e meglio sarebbe in triple channel, visto che è supportato, quindi o 3Gb o 6Gb o 12Gb o 24Gb (sempre usando 3 banchi)

3dl
05-12-08, 18:20
il core i7 940 è uno specchio per le allodole, per quello che offre costa decisamente troppo. Sulla ram il discorso è più delicato. I nuovi Intel i7 hanno il controller della ram integrato nel core, e non più sulla scheda madre, quindi si è obbligati ad utilizzare le DDR3, e meglio sarebbe in triple channel, visto che è supportato, quindi o 3Gb o 6Gb o 12Gb o 24Gb (sempre usando 3 banchi)
Indubbiamente costa parecchio ma non credo che non valga i soldi pagati....a detta di parecchi ha le stesse prestazioni di un dual quad xeon 2.33 mhz....che non è poco per un solo processore....ed è anche possibile overcloccarlo...:)

g4dual
05-12-08, 18:29
Indubbiamente costa parecchio ma non credo che non valga i soldi pagati....a detta di parecchi ha le stesse prestazioni di un dual quad xeon 2.33 mhz....che non è poco per un solo processore....ed è anche possibile overcloccarlo...:)

con i soldi spesi per il 940 ci si compra il 920 e relativa MoBo ... e vanno esattamente uguale, è da quando è uscito che lo seguo molto ta vicino, e sarà il mi prossimo acquisto ;) (probabile che il procio lo acquisto già prima della fine del mese)

L'Intel Core i7 920 lo si trova intorno ai 280 Euro ivato e viaggia a 2.66Ghz
L'intel Core i7 940 lo si trova intorno ai 570 Euro ivato e viaggia a 2.93Ghz

A parere mio poco meno di 300Mhz di differenza non valgono assolutamente quasi il doppio dei soldi

Fire
06-12-08, 15:26
Adesso capisco mi sembrava strano che con quattro core andasse cosi piano ... non li usa :( ma si decidono a svecchiare Lightwave o no??
...guarda che il supporto multi-thread nell'interfaccia di LW (non parlo ovviamente del rendering dove è sfruttato), ...è esattamente come quello di altri Sw3D concorrenti, ...per cui non è solo il Sw NT a dover esser ..."svecchiato". ;)

Per quanto riguarda le schede grafiche professionali, fra ATI e nVidia ricordo che c'è sempre stato un miglior supporto Open GL da parte di quest'ultima (nVidia) per il diretto sviluppo da parte del creatore dello standard (SGI) in seno al comparto R & S di nVidia.

Per il discorso differenze fra serie Quadro (Prò) e GForce (Consumer), in effetti è valido quanto è stato giustamente detto. Con Maya ad esempio, per poter sfruttare gli Overlay Plane via Hardware (il che significa aumento notevolissimo di reattività e quindi produttività), ti occorre una scheda Prò che abbia i driver certificati e qui torniamo all'utilità di una Quadro o una FireGL. Con LW il problema non si pone, ragion per cui meglio orientarsi su una GForce consumer ma di fascia alta che va benissimo.

A questo proposito un'ultima considerazione un pò OT. Visto che queste GPU hanno ormai di tutto al loro interno, sarebbe ora che chi sviluppa Sw 3D se ne accorgesse e lo sfruttasse non solo per i giochi.
C'è un engine solo dedicato alla fisica, non oso immaginare quello che se ne potrebbe ricavare nella previsualizzazione di un' animazione in RT-OGL, per non parlare della costellazione di effetti già pronti per le particelle e molto altro.
Anche la stessa CPU potrebbe poi esser aiutata nel rendering, visto la potenza elaboritiva (diversi GFlops) lasciati a riposo e inutilizzati durante questa fase, certamente ci sarebbe meno necessità d'upgrade di CPU. E qualcuno, almeno in questo senso, pare si stia già muovendo. Scusate lo sfogo e chiuso l'OT.

F.

epasinet
07-12-08, 10:03
Cavolo ragaz mi avete sconvolto tutti i piani!
Ma siamo sicuri che un quad i7 in termini di prestazioni in calcolo puro spazzoli un dual Xeon quad da 2,33Ghz????????
Se è così mi fate spendere meno di metà di quel che avevo previsto!

Ma a stò punto cosa ne pensate della DDR3? Secondo voi quelle attualmente in commercio non han ancora latenze troppo alte??

g4dual
07-12-08, 10:07
Cavolo ragaz mi avete sconvolto tutti i piani!
Ma siamo sicuri che un quad i7 in termini di prestazioni in calcolo puro spazzoli un dual Xeon quad da 2,33Ghz????????
Se è così mi fate spendere meno di metà di quel che avevo previsto!

Ma a stò punto cosa ne pensate della DDR3? Secondo voi quelle attualmente in commercio non han ancora latenze troppo alte??

Ci sono in giro DDR3 con Cas 7 .. ovvio, costano un capitale, ma ci sono. Un dato positivo è che pare, dai test, che le latenze non siano così importanti con questi processori. Per le prestazioni, un Core i7 ha la stessa capacità elaborativa di un QX9770 overcloccato ... e non è poco :D ... se poi l' I7 lo si overclocca un po' ... da polvere a tutto quello che c'è sul mercato attualmente :evil:

epasinet
07-12-08, 10:30
Ci sono in giro DDR3 con Cas 7 .. ovvio, costano un capitale, ma ci sono. Un dato positivo è che pare, dai test, che le latenze non siano così importanti con questi processori. Per le prestazioni, un Core i7 ha la stessa capacità elaborativa di un QX9770 overcloccato ... e non è poco :D ... se poi l' I7 lo si overclocca un po' ... da polvere a tutto quello che c'è sul mercato attualmente :evil:

Calma. Adesso le carte in tavola stan cambiando!
L'intel QX9770 è un quad@3,2Ghz mantre prima si parlava di un Dual Xeon Quad a 2,33Ghz! Inoltre quando dici il Core i7 ha la capacità elaborativa di un QX7700 intendi l'i7 a 2,66 o quella a 2,93?

Resto perplesso perchè un dual Xeon significa 8core mentre il Core i7 è pur sempre un Quad core!

epasinet
07-12-08, 10:52
Stò guardando adesso dei Bench ed effettivamente l'i7@2,66Ghz è davanti al QX7700 anche se in alcuni videogiochi l'i7@2,66 và identico al Core Quad@2,66 il chè mi lascia pensare che nell'i7 possano esserci delle ottimizzazioni tipo SSe o simili che magari in LW non han effetto!??!?
Mha!?
A questo punto sarei curioso di vedere un bench contro un dual Xeon in rendering tipo con i motori interni di Cinema, Lightwave e Maxwell tanto per mettere nero su bianco la verità

g4dual
07-12-08, 11:08
Il Core I7 è un Quad ma con tecnologia Hyper Threading, ossia 4 core fisici = 8 core logici (Windows vede 8 core, così come LW). Per quello si dice che supera un sistema doppio quad-xeon :D
Discorso diverso il prossimo anno, quando Intel farà uscire gli Xeon, basati su architettura Nehalem, con 8 core fisici (quindi 16 logici) :evil:

Bruscolì
07-12-08, 11:22
Aggiungo un'altro ingrediente alla ricetta finale ... non l'avevo scritto prima perchè non sono sicuro di quello che dico, dato che ancora non ho fatto prove.
Ho notato che Aprendo il Task Manager, in xp64 e vista64, nel tab "Processi", selezionando un'applicazione attiva e cliccandoci con il tasto destro, puoi scegliere i core che quell'applicazione deve utilizzare, l'opzione è "Imposta affinità".

Un'esempio di quello che volevo dire è ... uso 4 core per fare un rendering mentre con altri 4 continuo a lavorare ... oppure 4 core per un rendering e altri 4 per un'altro rendering .... o 4 core per un rendering, 2 per un altro rendering e 2 per lavorare ... insomma poi dipende dalle esigenze.
E' quello che facevo un pò con Dtask manager in xp32 impostando le priorità dei processi.

E' anche questa cosa che mi ha fatto scegliere l'avere più core, ma la mia è solo un'idea da verificare dato che ancora non ho avuto modo di verificare.

@epasinet
Purtroppo non ho avuto tempo di eseguire il cinebench ... quando torno in ufficio cerco di farlo.

Fulvio

marconwps
09-12-08, 18:55
Si Fulvio sembra si comporti cosi . Altrimenti ci sono software commerciali,questo non costa tantissimo e funziona anche su xp =)!!

http://www.ashampoo.com/frontend/products/php/product.php?session_langid=2&idstring=0061

non ho nessun legame con la ashampoo!!

Poi tornando al discorso stream processor è un peccato che nvidia abbia relizzato la plug in per la fisica solo per max e maya ... triste :( c'è nessuno che ci capisce e mette mano al codice cuda =)!!!

Saluti Stefano

Bruscolì
09-12-08, 20:53
@marconwps
grazie per il link ... a me comunque interessa la continuità mentre lavoro, senza stalli e attese quando ho un rendering in background.

@epasinet
quì (http://www.lwita.com/vb/showthread.php?p=70688#post70688) puoi trovare il test che ho fatto oggi con il dual xeon ...

Fulvio

epasinet
10-12-08, 08:00
@marconwps
grazie per il link ... a me comunque interessa la continuità mentre lavoro, senza stalli e attese quando ho un rendering in background.

@epasinet
quì (http://www.lwita.com/vb/showthread.php?p=70688#post70688) puoi trovare il test che ho fatto oggi con il dual xeon ...

Fulvio

Grazie Fulvio questa è la dimostrazione che un Geffo8800 fà tanto quanto una QuadroFX1700 e che i tuoi 8 core a 2,33 spazzolando un solo quad a 3,4Ghz! Per fortuna che è andata così percè iniziavo ad avere un pò troppa confusione!

epasinet
10-12-08, 08:05
Ragaz guardate questo link http://www.newtek.com/lightwave/requirements.php Newtek consiglia almeno una Quadro FX5200 e dice che deve esserci il supporto alle GLSL..! Siamo sicuri che una Geforce 280GTX soddisfi tali requisiti??

skyler
10-12-08, 10:15
Ti dico la mia..Rinnovando i pc adesso sto con un Dual e scheda video Nvidia 8600GTS e LW e gli altri giravano benissimo, spostati su quello recente quad con scheda 9800 GTX 512mb e vanno ancora meglio. In OGL le textures si vedono bene e la modellazione è fluida senza inceppamenti e la spesa 700 €. La RAM 2 GB , ma sto prenderno in esame di mettere XP 64 e raddoppiare.
Poi ognuno ha le sue esigenze specifiche..:evil:

g4dual
10-12-08, 10:45
Quoto, ognuno coi propri soldi ci fa quel che vuole :evil:

epasinet
10-12-08, 13:21
No ragazzi, dai! Adeso stiamo travisando.
Siamo qui a discutere proprio per cercare di aiutarmi e aiutare le prossime persone che leggeranno questo post per spendere nel miglior modo possibile i soldi.
Penso che a nessuno piaccia l'idea di sprecare i soldi.

La questione è capire la verità univoca. Capisco che molti di voi acquistino hw "di compromesso" nel tentativo di raggiungere le massime prestazioni con la minor spesa ma questo non implica che LW non vada meglio con altro hw più costoso. Sicuramente con un Quad core LW funziona bene ma Fulvio ci ha palesemente dimostrato che la potenza di otto core rende tanto quanta è la frequenza a disposizione. Per la scheda video è più difficile trovare la verità perchè la Quadro spesso han architettture molto vecchie rispetto le schede "game" e quindi non si riesce ad avere facilmente un confronto equo; certo è che Newtek nei requisiti di LW consiglia scheda Quadro FX almeno della serie "5xxx" che a mio avviso è un requisito piuttosto alto ma che sopratutto lascia presagire che in realtà LW sfrutti in parte o non le caratteristiche di queste schede. In effetti visto il confronto tra la Quadro di fulvio e la Geforce di Fire il risultato nei bench non è molto diverso nonostatnte le due architetture siano nettamente diverse e a netto svantaggio per la quadro. Ma io non mi intendo minimamente di schede video professionali e tantomeno dei relativi bench.
Adesso mi metto alla ricerca di ulteriori info in rete e se trovo qualcosa ci aggiorniamo.

Enrico

gebazzz
10-12-08, 17:02
Newtek consiglia almeno una Quadro FX5200 e dice che deve esserci il supporto alle GLSL..! Siamo sicuri che una Geforce 280GTX soddisfi tali requisiti??
GLSL vuol dire OpenGL 2.0, quindi da molte serie fa di schede video nVidia e ATi.. pardon, AMD. Cmq, se proprio vogliamo, LightWave funziona anche con schede che non supportano il GLSL.. semplicemente non andrà in quella modalità.

Fire
11-12-08, 13:08
Grazie Fulvio questa è la dimostrazione che un Geffo8800 fà tanto quanto una QuadroFX1700 e che i tuoi 8 core a 2,33 spazzolando un solo quad a 3,4Ghz! Per fortuna che è andata così percè iniziavo ad avere un pò troppa confusione!

-------------------------------------------------------------------
O.S. : VISTA 64 BIT 6.0.6000 (no SP1) XP64
-------------------------------------------------------------------
Rendering (Single CPU) : 4182 CB-CPU 2864
Rendering (Multiple CPU) : 14955 CB-CPU 17385
Shading (OpenGL Standard) : 5868 CB-GFX 5176
-------------------------------------------------------------------
Bhè ...e ci mancherebbe ci sarebbe da aggiungere (se un 8 core non andasse meglio di un 4 core), ...ma ci sono anche delle altre cose da considerare. Nelle prestazioni per singola CPU, quindi ciò che utilizza l'interfaccia di LW ad es., la situazione si inverte e ...di molto. C'è anche da considerare una questione non secondaria nel rapporto prezzo/prestazioni, ...il costo, che credo sia notevolmente diverso fra le CPU considerate.

Il discorso del rapporto prezzo/prestazioni poi si amplifica ulteriormente se al posto del mio Q9550, consideriamo una CPU di pari costo ma di tutt'altre prestazioni come l' i7 920... Io son riimasto su C2 per non dover cambiare il resto, ma in futuro di certo passerò a i7, ...basta guardare al Benchwell (http://www.benchwell.com/). ;)

F.

epasinet
11-12-08, 13:38
-------------------------------------------------------------------
O.S. : VISTA 64 BIT 6.0.6000 (no SP1) XP64
-------------------------------------------------------------------
Rendering (Single CPU) : 4182 CB-CPU 2864
Rendering (Multiple CPU) : 14955 CB-CPU 17385
Shading (OpenGL Standard) : 5868 CB-GFX 5176
-------------------------------------------------------------------
Bhè ...e ci mancherebbe ci sarebbe da aggiungere (se un 8 core non andasse meglio di un 4 core), ...ma ci sono anche delle altre cose da considerare. Nelle prestazioni per singola CPU, quindi ciò che utilizza l'interfaccia di LW ad es., la situazione si inverte e ...di molto. C'è anche da considerare una questione non secondaria nel rapporto prezzo/prestazioni, ...il costo, che credo sia notevolmente diverso fra le CPU considerate.

Il discorso del rapporto prezzo/prestazioni poi si amplifica ulteriormente se al posto del mio Q9550, consideriamo una CPU di pari costo ma di tutt'altre prestazioni come l' i7 920... Io son riimasto su C2 per non dover cambiare il resto, ma in futuro di certo passerò a i7, ...basta guardare al Benchwell (http://www.benchwell.com/). ;)

F.

Fire, il tuo ragionamento è valido e si riconduce al mio primo post di questa discussione in cui mi interrogavo sul fatto se fosse meglio tanti core a bassa frequenza o pochi core ad alta frequenza supponendo che durante attività di LW che non sfruttano il multicore scadesse la reattività del programma!
Ma il mio dubbio mi era nato dal semplice fatto che la workstation Dell Precision costa la stessa cifra in configurazione dual Xeon@2,5Ghz e Singolo Xeon@2,83Ghz! ..e credo che in questo caso il dubbio sia più che lecito!

g4dual
11-12-08, 13:45
Io voglio sempre ricordare a chi lo avesse scordato o a chi proprio non lo vuole sentire, che la nuova architettura Nehalem, e per la precisione i nuovi Intel Core I7 hanno 4 Core fisici ma 8 thread riconosciuti, sono quindi in tutto e per tutto uguali (come core quindi) ad una workstation dual-quad core xeon ... :rolleyes:

poi lo ripeto, ognuno coi propri soldi ci fa quel ci vuole, ritengo però assurdo spendere soldi per tecnologia ormai già superata e non più aggiornabile, visto che il nuovo riferimento è il socket 1366 e le DDR3 (come ram) ... :rolleyes:

tutto questo per dire che non tutti possono permettersi il lusso di cambiare PC ogni 6 mesi (tempo medio per cambio architettura dei processori) ...
Se non hai particolare fretta, io, tempo qualche mese dovrei riuscure ad assemblare il nuovo PC, proprio con un Intel Core I7 ... si può poi paragonare con i PC presi in esame nei test

Fire
11-12-08, 13:54
A proposito delle differenze fra le schede grafiche, ho eseguito e aggiornato il test anche con quello sotto XP, dove si fa notare prepotentemente la necessità del supporto OpenGL nei driver:

Operating System : WINDOWS 32 BIT 5.1.2600
---------------------------------------------------
Shading (OpenGL Standard) : 6695 CB-GFX
Rendering (Single CPU): 3747 CB-CPU
Rendering (Multiple CPU): 13306 CB-CPU
CPU Ratio: 3.55

In questo caso, le prestazioni della CPU calano vistosamente, ma altrettanto vistosamente si nota il guadagno nella GPU, particolarmente se si guarda al confronto con la Quadro. In quest'ottica la miglior soluzione rimane XP64.

@ G4: ...non so se ti riferivi a me, ma non credo, avendo scritto chiaramente che il passaggio fra Q6700 e Q9550 è dovuto solo al vantaggio di poter cambiare solo CPU. Dovendo fare una macchina nuova invece il dubbio non si pone neanche.

F.

epasinet
11-12-08, 14:02
Io voglio sempre ricordare a chi lo avesse scordato o a chi proprio non lo vuole sentire, che la nuova architettura Nehalem, e per la precisione i nuovi Intel Core I7 hanno 4 Core fisici ma 8 thread riconosciuti, sono quindi in tutto e per tutto uguali (come core quindi) ad una workstation dual-quad core xeon ... :rolleyes:

poi lo ripeto, ognuno coi propri soldi ci fa quel ci vuole, ritengo però assurdo spendere soldi per tecnologia ormai già superata e non più aggiornabile, visto che il nuovo riferimento è il socket 1366 e le DDR3 (come ram) ... :rolleyes:

tutto questo per dire che non tutti possono permettersi il lusso di cambiare PC ogni 6 mesi (tempo medio per cambio architettura dei processori) ...
Se non hai particolare fretta, io, tempo qualche mese dovrei riuscure ad assemblare il nuovo PC, proprio con un Intel Core I7 ... si può poi paragonare con i PC presi in esame nei test

Ma guarda che forse hai frainteso perchè io non ho mai detto che voglio acquistare un pc con Xeon con architettura Core 2 anzichè un Core i7.
Il Core i7 come dici tu è visto dal sistema operativo e quindi dai software, come un 8 core ma in realtà quando elabora nel caso dell'abbordabile 920 ha la potenza di 2,66Ghzx4 e non 2,66Ghzx8!!! Quindi in fatto di pura potenza non lo paragonerei ad un dual Quad Xeon di pari frequenza per quanto l'architettura dell'i7 sia migliore!
Se parliamo del rapporto prezzo prestazioni forse assemblarsi un PC con un Core i7 ad oggi è la soluzione con il miglior rapporto prezzo/prestazioni e sicramente si porta il vantaggio di utilizzare un soket e una tipo di memoria attuali che in prospettiva di aggiornamenti garantiscono un certa longevità.

In orgine quando ho aperto questo thread ero un pò abbagliato dall'idea della workstation non tanto perchè è una macchina costosa e quindi dà l'idea di risolvere tutti i problemi, ma più che altro perchè ho sete di potenza e mi rendo sempre più conto che lavorare con scene complesse e con tanti poligoni in ambiente Win richede moltissima ram (per la cattiva gestione del so) e tanti Mhz per muovere la scena e sinceramente confidavo in una workstation per risolvere i problemi ma adesso parlando e consultatno vari bench forse un i7 con 12Gb di ram e un scheda video Geforce 260+ potrebbero gararntirmi ad un prezzo accettabile una buona riserva di potenza, anche se i "soli" 2,66Ghz del 920 mi sembrano pochini.

g4dual
11-12-08, 14:38
prima di tutto un Core I7 quando "elabora" (come dici tu) elabora con 8 thread ... esattamente come farebbero 2 xeon quad-core (che fanno appunto 8 thread) ... e poi, sinceramente, paragonare due processori di due epoche diverse, solo per la loro velocità in GHz, significa, perdonami, non capirne proprio un "ciufolo" di Hardware :rolleyes:

poi lo ripeto, ognuno i propri soldi li spende come vuole, hai chiesto un parere, io ti ho dato il mio, che sei liberissimo di seguire o meno ... tutto qua, nessun rancore e amici come prima :D

PS: la mia linea di pensiero la conosci, se hai un PC "vecchio" da aggiornare, allora aggiorna quello e vai finchè viaggia. Se devi partire da zero con un PC nuovo, spendere soldi per i "vecchi" Intel Core 2 Quad (o Duo) che sia e relativa scheda madre Socket 775 ... bhe ... sappi che non potrai più aggiornare la macchina che andrai ad assemblare, visto che via via che passano i mesi, i vecchi processori verranno via via dismessi ... tanto è che nel primo trimestre del 2009 verranno già messi in commercio i nuovi Intel Core I5 (fascia medio-bassa) dei processori di classe Nehalem (i vari sostituti dei Core 2 Duo e Quad di tale fascia economica ... ah, ovviamante con socket diverso dagli attuali I7, che rimarranno la classe medio-alta della categoria)


PS: per quanto concerne la capacità di lavorare scene "molto complesse" ... io sinceramente non ho la più pallida idea di cosa consideri tu per "molto complesso", ma dall'uscita del nuovo LW 9.5 io ho praticamente risolto il 99% dei problemi in fatto di modellazione (gestione del modello) e di rendering di scene "molto complesse" col mio PC dell'anteguerra (un dual AMD Barton 2800+ MP con 3Gb di Ram DDR PC2700 e una scheda grafica AGP nVidia 7800GS) ... e per scene molto complesse intendo con "almeno" 6 milioni di poligoni ... e per modelli "molto complessi" intendo con "almeno" 1 milione di poligoni su singolo layer ... li muovo e li modifico in perfetta scioltezza, senza che il PC batta ciglio ...

Fire
11-12-08, 14:57
Epasinet credo che però che tu stia trascurando i vantaggi della facile Overcloccabbilità di queste CPU. Non solo, ma il vantaggio del ritorno al Multi Threading da parte Intel ha portato dei chiari vantaggi di ottimizzazione, se è vero che degli 8 core 4 sono virtuali, è anche vero che la possibilità di disporne porta notevolissimi vantaggi nelle applicazioni che ne beneficiano.

Tant'è che ti invito a dar un'occhiata al test che ti ho linkato qualche post più su (il Benchwell è un test per Maxwell Render), dove un i7 920 (quindi ricordo il più "piccolo" della famiglia), si mette dietro Mac Octo con Xeon5462, Sistemi Win con Xeon 5482 e Opteron875. La macchina in questione è overcloccata ad un "valore di sicurezza" di 3,8Ghz ...perchè in realtà c'è chi è andato ben oltre i 4Ghz ma con minor stabilità.

Questo per il calcolo, ma i vantaggi non si limitano a questo sono tantissimi, uno fra tutti la nuova modalità "Triple channel" e il QPI. Le ram DDR3 vanno configurate su 3 banchi per non falsare l' FSB che con l'architettura Nehalem, ora si chiama QPI. Infatti Intel ha finalmente abbondanto l'interfaccia FSB. Al suo posto, i processori Core i7 utilizzano il Quick Path Interconnect (QPI) per comunicare con il Northbridge, con un grosso vantaggio per le periferiche. Questo produce incrementi di banda notevolissimi e la possibilità da parte dei costruttori di realizzare più facilmente M/B multi socket, visto il sistema di controllo interprocesso si trova già nella CPU.

La famiglia Core i7 è la prima Intel con 4 CPU vere e distinte all'interno dello stesso Wafer, ma questo oltre a portare indiscutibili vantaggi prestazionali ha portato anche un'aumento nei consumi, ...questo credo che possa esser considerato l'unico vero neo di questa famiglia di CPU, che credo introduca un balzo generazionale importante almeno quanto lo è stato quello del passaggio dai PentiumD ai Core2.

F.

***Edit: ...scusate se c'è qualche ripetizione, G4 ha postato mentre scrivevo :D

epasinet
11-12-08, 17:02
Stò Core i7 è un vero portento!
Sicuramente abbinato a sei banchi da 2Gb di DDR3 sarebbe una gran bella macchina da guerra. Ma come scheda video cosa dite? nVidia in OpenGL fino a qualche anno fà ha avuto sempre la meglio ma son rimasto stupito dalle ultime scheda AMD/ATI 4850 e 4870 che hanno un rapporto prezzo/prestazioni strepitoso ma dei driver ATI ho sempre molta diffidenza. Sbaglio?

Fire
11-12-08, 19:27
Stò Core i7 è un vero portento!
Sicuramente abbinato a sei banchi da 2Gb di DDR3 sarebbe una gran bella macchina da guerra. Ma come scheda video cosa dite? nVidia in OpenGL fino a qualche anno fà ha avuto sempre la meglio ma son rimasto stupito dalle ultime scheda AMD/ATI 4850 e 4870 che hanno un rapporto prezzo/prestazioni strepitoso ma dei driver ATI ho sempre molta diffidenza. Sbaglio?

Non è del tutto esatto, ...per il semplice motivo che probabilmente tu ti riferisci al buon rapporto prezzo prestazioni nei giochi, che per lo più utilizzano le DirectX. AMD/ATI credo che come accoppiata CPU/GPU punti ad una buona penetrazione nei segmenti medio/bassi dell''installato, nelle fasce alte non brillano ne le CPU ne le GPU. Inoltre i problemi dei driver ATI sotto OpenGL sono ormai storia, ...non so se ultimamente sia cambiato nulla in questo senso, ma ad ogni modo nVidia ha come detto precedentemente, un canale privilegiato con queste API, disponendo dello stesso reparto R&S di chi le OGL le ha inventate.

Volendo mettere altra "carne a cuocere", molto interessante la nuova introduzione di OpenCL da parte Apple, ...finalmente divenuto uno standard e che potrebbe portare nuova linfa vitale per la potenza elaborativa di noi poveri utenti. ;)

F.

epasinet
12-12-08, 13:17
Grazie Fire, le mie perplessità su ATI adesso son chiarite.
Geffo260 o 280 a tutto andare!

In questi giorni stò seguendo anch'io l'arrivo del nuovo standard OpenCL. Aggiungo che è notizia di oggi che Apple pare debutti a brevissimo con Snow Leopard (10.5.6) che al suo interno ha già il supporto all'OpenCL. Non oso immaginare un computer Mac con Core i7+nVidia280+OpenCL quanta potenza riesca a vomitare!!!!
Speriamo che anche Bill almeno per Windows 8 integri tale standard!

il vostro Enrico

g4dual
12-12-08, 13:23
Snow Leopard è la nuova versione 10.6 prevista per metà anno 2009 (forse anche qualche mese prima). La versione 10.5.6 è "solo" un aggiornamento della versione attuale, la 10.5 ;)
Riguardo alle schede grafiche, a questo punto io aspetterei l'anno nuovo, entro i primissimi mesi usciranno le nuove Geffo a tecnologia 55nm ;) (minori consumi a parità di prestazioni)

epasinet
12-12-08, 16:55
Bravo! A questo punto anchi'io aspetto a veder il prezzo su strada della Geffo 285 e se costa troppo temporeggio per vedere se esce anche la corrispettiva 265 a 55nm. Cmq ormai ambisco alla 285 per un "PURE OPENGL".

Chiedo venia per l'errore sulla realese di OSX "Snow Leopard"

epasinet
21-12-08, 08:35
Ragaz a questo punto, dopo approfondite riflessioni, spero che Dell si svegli, si dia una mossa e sostituisca la serie Precision T3400 ancora coi vecchi Core2 con i nuovi Corei7 così potrò acquistare una workstation a prezzo modico con la nuova architettura Intel!