//
Realtà > Fotografia > CGI3D ...differenze e riflessioni sul tema.
Pagina 1 di 3 123 UltimaUltima
Risultati da 1 a 10 di 26

Discussione: Realtà > Fotografia > CGI3D ...differenze e riflessioni sul tema.

  1. #1
    Licantropo L'avatar di Fire
    Data Registrazione
    Nov 2006
    Località
    N 40°37'6" - E 17°55'2"
    Messaggi
    2,726

    Realtà > Fotografia > CGI3D ...differenze e riflessioni sul tema.

    Realtà > Fotografia > CGI3D ...differenze e riflessioni sul tema.


    Introduzione.

    Salve a tutti, ispirato dall'interessante topic e relativi articoli recentemente apparsi sul nostro portale ad opera del mitico e instancabile Lillo Sorce, (aka Elle Esse), ho deciso d'aprire un topic ad'hoc per evitare di "inquinare" la discussione originale con ..."divagazioni" sul tema. Le considerazioni a cui mi riferisco, riguardano alcuni aspetti citati da Lillo nei suoi articoli che a mio avviso necessitano, per esser compresi appieno, di alcuni approfondimenti che consentano d'aver ben chiaro quali siano i limiti dei vari aspetti. Lo scopo di Lillo è quello di fornire delle conoscenze di base delle tecniche utilizzate nei set cine/fotografici reali, a prescindere dal sistema utilizzato per riprodurle poi in virtuale, ...in questo topic invece, mi occuperò proprio di quest'ultimo aspetto e degli eventuali limiti che è possibile incontrare. Ovviamente, questo non è altro che il mio personale punto di vista sulla cosa e spero quindi che ci saranno altri pareri in merito, (il confronto è secondo me sempre e comunque produttivo). Per farmi capir meglio comunque, procederò per gradi, esplicitando concetti apparentemente banali o assodati, ma sempre a mio parere, indispensabili perché tutto abbia un senso logico compiuto. Consiglio quindi di mettervi comodi perché, (...a mio solito), non sarò breve!!


    Differenze oggettive nei mezzi di percezione e di acquisizione della realtà.

    Quello che tutti ad una prima analisi diamo in genere per scontato, è che per catturare un momento qualsiasi della nostra vita, basti fare una foto o una ripresa e che esista ad oggi una tecnologia, che consente anche di "rendere virtuale" questo genere d'operazione, (le immagini di sintesi prodotte dai software3D come Lightwave), riproducendo in 3D questi momenti. In realtà, come vedremo, tutto ciò è abbastanza teorico, perché in pratica (com'è facile immaginare), esistono alcune differenze oggettive fra i vari mezzi che permettono di osservare e acquisire (e/o riprodurre) la realtà che ci circonda e a mio avviso sono differenze di cui occorre tener conto. Per cui bisogna distinguere fra:

    * La realtà, (vista attraverso i nostri mezzi cognitivi, ossia i nostri sensi )

    * I vari strumenti di acquisizione della realtà (fotocamere e videocamere)

    * Gli strumenti virtuali in 3D (ossia i software 3D come Lightwave) che simulano quelli reali

    Nessun mezzo di cattura (fotocamera o videocamera che sia), dispone ad oggi della possibilità di riprodurre le stesse condizioni presenti all'atto della ripresa, questo perché, a differenza di ciò che normalmente si pensa, il prodotto di ciò che osserviamo non arriva solo dai nostri occhi, bensì da un sistema cognitivo complesso che coinvolge tutti i nostri sensi e viene elaborato in un'unica entità da ciò che per comodità chiamerò "coscienza percettiva". Nella realtà osservata di persona infatti, concorrono a rendere l'idea del posto dove ci si trova, altri recettori di cui gli esseri viventi sono dotati. Ma porto un' esempio pratico perché sia tutto più chiaro. Supponiamo d'osservare un panorama da un belvedere, decidiamo di scattarne una foto per portare con noi il ricordo di quel momento. Una volta a casa, rivedendo la stessa foto, ci accorgiamo che gran parte della "magia" di quel momento è andata persa, ...eppure il panorama è sempre quello, ...allora cos'è successo? La risposta è piuttosto semplice: ...l'immagine a ben vedere è solo una parte di quel ricordo e parlando di "immagine" è bene ricordare che c'è "immagine e immagine". La nostra vista (stereoscopica e panoramica) in quel momento forniva un' immagine molto ampia di quel paesaggio, di cui solo una parte rientrava nel campo visivo, il resto era ai limiti della nostra visione (in quello che in genere viene riconosciuta come vista perimetrale) e quindi fuori fuoco. Per riempire il nostro campo visivo allo stesso modo, avremmo bisogno d'un sistema come l'IMAX, ossia un mega schermo grande come un palazzo, dove vengono proiettate le pellicole dette "per attrazione". Ma non solo, il nostro udito rendeva conferma del fatto che ci trovavamo in un ambiente aperto e molto ampio. Il nostro olfatto riportava magari le fragranze delle essenze presenti, (o ad es. dell'aroma salmastro se eravamo nei pressi di una località marina). Inoltre, la temperatura dell'aria percepita e il sole sulla nostra pelle, concorrevano a dare un'idea del clima meteo in quel preciso momento. Insomma, tutto, ma proprio tutto, permetteva al nostro cervello di formare molto più di una semplice "immagine", grazie alle indicazioni precise su quel bel posto fornite da tutti i nostri sensi e a creare così, un'idea di quel posto composta da un' insieme di informazioni che inevitabilmente, scattando semplicemente quella foto, sono andate perse o che perlomeno, possono esser rievocate nella memoria di chi ha vissuto quell'esperienza, ma non potranno esser trasmesse con quello scatto a chi quell'esperienza non l'ha realmente vissuta.


    La Gamma dinamica.

    Ma allora, cosa si può migliorare per avvicinarsi di più alla realtà? Bhè, di tutti i sensi citati, solo sulla parte riguardante il sistema visivo, è attualmente possibile apportare dei miglioramenti, per fa si di poter acquisire l'immagine nel modo più fedele possibile alla realtà. Il problema però, è che, stereoscopia e dimensioni del prodotto finale a parte, ad oggi non disponiamo di un sistema all'altezza degli occhi umani e del relativo sistema cognitivo. La facoltà di riuscire a distinguere chiaramente dei dettagli sia nelle alte che nelle basse luci di un'immagine, è detta "Gamma Dinamica". Per avere un'idea della differenza di Gamma Dinamica fra i nostri occhi e i sensori delle migliori fotocamere professionali, basti pensare che ad oggi, questi possono raggiungere a malapena i 12 EV (in realtà non vi riesce nessuno, siamo per tutti sotto quel valore), mentre i nostri occhi consentono addirittura di doppiare agevolmente questo valore, pur senza grandi sforzi. E' per questo motivo che negli esempi riportati nell'articolo di Lillo, una ripresa in controluce prodotta con una camera, potrà ottenere una corretta esposizione solo con l'aiuto di "luce extra", mentre la stessa scena è visibile in modo corretto ad "occhio nudo", senza bisogno di "aiuti luminosi esterni".


    Espansione artificiale della Gamma Dinamica in fotografia.

    In fotografia, con i limiti di Gamma Dinamica di cui sopra, ci si trova spesso nelle stesse condizioni dell'esempio precedente, quando cioè si scatta una foto in controluce, come ad esempio ad un panorama. Questo perché la differenza d'esposizione fra cielo (estremamente luminoso) e terreno (molto meno luminoso), consente di poter esporre correttamente solo uno dei due. In fotografia per poter "espandere" artificialmente la Gamma Dinamica, si ricorre in genere a dei "barbatrucchi" che consentono di poter fondere con un software per il fotoritocco, (come ad es. Adobe Photo Shop), le due esposizioni corrette (quella per il cielo e quella per il terreno), con una tecnica detta appunto della "doppia esposizione". Quando le condizioni di scatto, o il tipo di soggetto, rendono difficoltoso poter fondere le due immagini, se è possibile poter contare su un numero maggiore di due esposizioni diverse (quindi almeno 3), è possibile avvalersi della tecnica del Tone Mapping su immagini dette ad Alta Radianza o HDR (High Dinamic Range), ottenute dalla fusione dei tre scatti con esposizioni diverse. Questo se i nostri soggetti sono statici come dei panorami, con soggetti dinamici il discorso dell'espansione artificiale della gamma dinamica cade. Anche nella ripresa in video, pur essendo soggetti allo stesso tipo di problematica, non possiamo avvalerci naturalmente delle stesse tecniche d'espansione artificiale della gamma dinamica a cui si faceva riferimento per la fotografia. In questo caso, occorre supplire all'esposizione con sistemi di illuminazione aggiuntiva, perlomeno per soggetti a breve raggio.


    I modelli di riferimento nel 3D.

    Nei recenti software 3D (come Lightwave), si è scelto di poter disporre per i rendering, di una gamma dinamica espansa in partenza, lavorando con uno spazio colore più ampio, in modo da poter contare nello sviluppo delle immagini di sintesi, di un maggior dettaglio sia nel calcolo della alte che delle basse luci. Lightwave è stato pioniere in questo, in quanto è stato il primo software 3D commerciale ad adottare il sistema HDR nativamente ed oggi lo è ancor di più con il sistema "Linear Color Space Workflow", che permette sistemi di illuminazione più realistici e una maggiore flessibilità di resa nel compositing. Ma il problema di fondo di tutti i software 3D è un'altro: ...ossia il modello di riferimento scelto per riprodurre la realtà. Come giustamente faceva notare Lillo nel suo articolo, il modello che è possibile accostare ai vari software3D non è il sistema cognitivo umano, (per altro non ancora del tutto ancora conosciuto), ma bensì quello cine/fotografico e quindi anche della relativa attrezzatura. In questo modo, risulta più semplice utilizzare degli strumenti assimilabili a quelli che si utilizzano nei veri set cine/fotografici reali, ma al contempo, i limiti di cui questi strumenti virtuali soffrono rispetto alla realtà percepita, saranno gli stessi di quelli simulati, (quindi dei corpi fotografici e delle videocamere).


    Differenze nella resa della luce fra un set reale e un set virtuale e importanza degli algoritmi di calcolo.


    Sebbene sia molto utile, (direi pure "fondamentale"), apprendere le tecniche di illuminazione di scena applicate ai set reali, (ancora grazie Lillo!), è bene a mio avviso valutare anche quali limiti ci siano nella simulazione in 3D di questi set. Il termine "3D" è molto vago e a ben vedere infatti, se utilizzassimo le trasposizioni virtuali degli strumenti reali, con algoritmi di rendering 3D non adatti, esisterebbero poi notevoli differenze di resa nei risultati fra reale e virtuale, per cui verrebbe meno l'importanza di conoscere le tecniche di illuminazione reale. Ma cos'è in particolare che cambia dalla realtà? Semplice, cambiano le regole e i principi sulla quale si basa la luce nella vita reale. Più gli algoritmi su cui si basa il motore di calcolo del Software 3D sono accurati e corrispondenti alla realtà, più i risultati saranno pertinenti e quindi, più utile sarà capire come si comportano i professionisti nel loro lavoro. Per farmi capire meglio, porto un' esempio pratico. Sappiamo ad esempio che nei set foto/cinematografici reali, per ottenere della luce di "riempimento" o di "schiarita" di parti meno illuminate dei soggetti, si utilizzano dei pannelli bianchi dove far "rimbalzare" la luce detti "bank" e sono posizionati generalmente nel lato opposto a quello di provenienza della luce, oltre il soggetto. Ora supponendo di provare a riprodurre la stesa scena in 3D, se per il calcolo utilizzassimo ad esempio un semplice algoritmo di Ray Tracing, (dove i rimbalzi dei raggi emessi dalla sorgente di luce non vengono calcolati), sarebbe normale che il "trucco" del pannello dove far "rimbalzare" luce , non funzionasse. L'importanza di poter contare quindi su un sistema che abbia un minimo fedeltà a quelli che sono i principi di diffusione della luce diventa cruciale, se si vogliono sfruttare le conoscenze applicate nei sistemi di illuminazione reale.
    E' vero che si possono escogitare degli espedienti per produrre situazioni di luce simili, ...ad esempio, (restando nell'esempio precedente), si potrebbe utilizzare al posto del piano passivo, un emitter diffuso tipo l' "area light" di Lightwave, con una bassa intensità di luce emessa, a simulare quella del primo emitter che doveva rimbalzare (e non può utilizzando il RT) sul piano passivo, ...ma dipende tutto dalla fedeltà dei risultati a cui si punta. Per far chiarezza su quest'aspetto porto un'altro esempio pratico. Supponiamo che ci venga chiesto di integrare della grafica 3D in un set reale, (cosa questa che è parte dell'ordinario nelle produzioni moderne). Bene, in questo caso diventerebbe di cruciale importanza poter disporre d'un sistema 3D che funzioni il più possibile come una vera cinepresa o fotocamera, di modo ché, l'integrazione fra i due mondi (CGI e realtà) sia il più invisibile possibile. E questo vale non soltanto a livello di motore di calcolo, ma anche a livello di impostazioni dei parametri sia della camera, sia delle unità di misura delle luci, (ma di questo ne parleremo meglio più avanti). Il ripiego su algoritmi e software non adatti a questo scopo, con trucchetti e artifici vari, molto spesso produce risultati scadenti come quelli di alcune produzioni economiche, dove la mancanza d'integrazione fra mondo reale e oggetti in CGI è palese e gli "effetti 3D" a questo punto, forse sarebbe stato meglio evitare di introdurli (almeno a mio parere). Diverso il caso ad esempio della produzione d'un cartone animato in 3D, dove occorre applicare sempre le stessi principi usati nei sistemi di illuminazione dei set reali, ma dove non è richiesta una fedeltà di resa all'ambiente che viene simulato, anzi, tutt'altro.

    Siete stanchi? Spero di no, perchè ...continua...>
    Ultima modifica di Fire; 16-11-11 alle 15:56
    "...Secondo tutte le leggi conosciute dell'aeronautica, non c'è modo che un'ape sia in grado di volare. Le sue ali sono troppo piccole per sollevare il suo corpicino grassoccio da terra. ...L'ape, si sà, vola lo stesso. ...Perchè alle api non interessa quello che gli uomini ritengono 'impossibile'...". (Da "Bee Movie")

  2. #2
    Licantropo L'avatar di Fire
    Data Registrazione
    Nov 2006
    Località
    N 40°37'6" - E 17°55'2"
    Messaggi
    2,726

    Realtà > Fotografia > CGI3D ...differenze e riflessioni sul tema.

    I Software e gli algoritmi di calcolo 3D più adatti a simulare una situazione reale.

    Occorre quindi fare molta attenzione a cosa si usa per produrre immagini in 3D e avere una buona conoscenza quindi anche delle possibilità di calcolo che il software che usiamo ci offre. In una scena come quella proposta ad esempio da Lillo, con un protagonista seduto ad una scrivania con una lampada al buio, può andar bene anche il semplice Ray Tracing, in quanto c'è poca luce, per lo più diretta e i rimbalzi di luce sulle superfici sono quasi assenti. Ma la situazione cambia (e anche di molto), se ci si trovasse in condizioni di luce diverse, situazioni in cui è invece la luce diffusa a farla da padrone. In quel caso, il "minimo sindacale" in termini di algoritmo necessario per avere una corrispondenza anche solo basilare dei risultati, si chiama "radiosity", algoritmo nel quale viene calcolata la luce riflessa e irradiata indirettamente, sia come intensità che come frequenza (e quindi colore). Ma il radiosity è un algoritmo molto vecchio e sebbene sia stato ottimizzato molto, risente ancora di molte limitazioni di resa. Per ulteriori approfondimenti sulle prerogative dei vari engine, vi rimando alla lettura dell'articolo specifico su motori di calcolo presente sullo stesso portale di LWITA (il rendering e dintorni). Oggi sono disponibili moderni software che offrono algoritmi più fedeli del Radiosity, ma sopratutto, offrono un sistema di camere e luci paritetiche ai set reali. Vediamo in dettaglio su quali parametri è importante poter contare per poter effettuare un'agevole e fedele trasposizione dal mondo reale al 3D.


    Impostazioni di camera.

    Velocità dell'otturatore: In Lightwave è impostabile ai fini del motion blur, o meglio, viene ricavata in automatico a seconda delle impostazioni scelte per questo parametro nel pannello relativo (Pannello "Motion Effects", il valore "exposure time" espresso in secondi). In realtà nel sistema reale, il "motion blur" è una conseguenza della velocità dell'otturatore scelta ed è fondamentale per ricavare l'esposizione corretta. Esistono comunque engine esterni per Lightwave che offrono una gestione fedele e completa della camera e dei relativi parametri.

    Apertura del diaframma:
    In Lightwave è impostabile dal pannello "Stereo and DOF", "Depth of field", il parametro permette di definire i l punto del piano di fuoco e la profondità di campo. In realtà, in fotografia, questo parametro è essenziale anche per definire quanta luce poter gestire, per cui anch'esso è fondamentale per ricavare l'esposizione corretta. Esistono comunque engine esterni per Lightwave che offrono una gestione fedele e completa della camera e dei relativi parametri.

    Velocità ISO: Non essendoci nativamente in Lightwave una vera gestione dei parametri di camera, non esiste un parametro che emula la sensibilità del sensore virtuale della camera di Lightwave. Esistono comunque altri parametri (per lo più nella sezione dei parametri delle luci), come quello che regola la "luce ambiente", che sortisce un 'effetto di "schiarimento" della ripresa, ma non è esattamente la stessa cosa. Esistono comunque engine esterni per Lightwave che offrono una gestione fedele e completa della camera e dei relativi parametri.

    In Lightwave è possibile definire anche la dimensione del sensore e la lunghezza focale dell'obbiettivo simulato e scegliere la camera da un database dei modelli più utilizzati (non molto aggiornato in verità). Inoltre, scegliendo una "Real Lens Camera", c'è la possibilità di fornire al software ulteriori dettagli dell'attrezzatura simulata, come l'angolo di campo (FOV in gradi) dell'obbiettivo utilizzato, indicando esattamente la sigla dell'ottica compresa in un database. Queste impostazioni non sono complete come nei motori di rendering esterni per Lightwave (che simulano in tutto e per tutto un vero corpo digitale), ma riescono a fornire un sistema per aggirare l'ostacolo. Manca però a mio avviso la naturalezza per chi opera, di poter agire esattamente come agirebbe con un vero corpo camera e di conseguenza, con quest'approccio esistono più problemi quando occorre un parallelismo reale / vituale.


    Impostazioni di scala e parametri di illuminazione.

    A mio avviso, attualmente la più grave mancanza in Lightwave relativamente a questi temi, (come in verità anche nella maggior parte del Software 3D concorrente), per ragionare in termini reali (e quindi facilmente riconducibili ai settaggi di scena), è la mancanza di una corrispondenza di scala nel sistema di illuminazione e la mancanza di un sistema basato su parametri fotometrici reali. Per chiarire meglio quest'aspetto, porto anche qui degli esempi pratici. Supponiamo di voler illuminare un' ambiente, come può esser una semplice stanza, con una fonte di luce e di voler riprodurre questa scena al PC. La maggior parte di chi legge penserà che è un compito estremamente semplice per la cui realizzazione al PC occorrono pochi minuti: ...una primitiva "box" (cubo) senza un lato (da dove inquadrare) e un emitter sulla faccia/soffitto e il gioco è fatto. Bene, supponiamo ora di voler capire se l'illuminazione data da quell' emitter è sufficiente ad illuminare alcuni oggetti all'interno della stanza. E' qui che cominciano i "problemi". Una volta stabilito nel Layout il "giusto" parametro di luminosità "Light Intensity" nel pannello "Light Properties", (che ricordo esser in Lightwave solo un valore percentuale, ...ma "percentuale" di cosa poi?) e magari anche la tonalità in valori RGB, ...come lo trasformiamo in un valore reale? Semplicemente, non è possibile. Se qualcuno pensa che per ovviare a questa mancanza sarebbe bastato un "semplice" utilizzo nel Software di NT, di valori comunemente usati, come le unità di misura espresse in Watt, anticipo che neanche questo, di per se, sarebbe bastato, almeno non senza una descrizione fisica dell'emettitore che comprendesse anche la tipologia specifica del tipo di emissione. La tipologia dell'emettitore infatti , influisce sull'efficienza dell'emissione luminosa, ...cosa importantissima di cui credo la maggior parte si siano resi conto nel quotidiano, con il passaggio dalle vecchie lampadine a filamento di tungsteno, alle moderne lampadine a "basso consumo", dove la potenza in Watt di "consumo" è diversa da quella della luce in Watt "emessa", con un rapporto di efficienza spesso pari a 1:4 e anche più (tipo 25W di consumo e 100W di luce). Questa è l'importanza dell'efficienza che occorre sempre specificare. Ma non solo, ...l'altro importante aspetto a cui accennavo è quello della correlazione fra le dimensioni di scala del progetto e quelle luminose. Se si disegnasse infatti quella famosa "stanza" di cui sopra, senza fare caso (come spesso accade quando non si è abituati), al fattore di scala del sistema metrico/decimale, ...piazzando una "lampadina" (ossia una luce di Lightwave) nel soffitto virtuale, il tutto funzionerebbe comunque , a prescindere dalla scala e otterremo così la nostra stanza illuminata. C'è da chiedersi se questa scelta nella semplicità d'un approccio poco realistico (ma efficace) è un bene o un male. A mio modo di vedere direi "dipende", ossia, ...dipende dai casi, vediamo perché. Supponiamo ora di esportare questa scena in un motore di rendering esterno ad alto profilo fisico com'è Maxwell Render (ma anche FryRender o altri) e proviamo a renderizzare. Il tempo passa ma lo schermo resta nero, ...eppure abbiamo impostato per la luce un valore del 100%, ...quindi com'è possibile? C'è qualcosa che non va, anche se in effetti, renderizzando con l'engine nativo di Lightwave il tutto funzionava. Torniamo quindi ad analizzare meglio la scena in Lightwave e osservando la griglia ci accorgiamo che la stanza ha la dimensione di base di 100mt! (Valore casuale questo in quanto non abbiamo fatto inizialmente caso a quest'aspetto, perché ininfluente ai fini dell'illuminazione nell'engine interno del software NT. In un Software come Maxwell Rendr invece, che "ragiona" in modo reale, era un pò come cercare di illuminare un campo di calcio con una lampadina da 100W! In sostanza, l'energia luminosa emessa quindi, deve necessariamente essere proporzionale al fattore di scala, per poter avere una trasposizione corretta fra reale e virtuale.

    Come esempio di fedeltà di trasposizione reale/virtuale, porto una vecchia prova fatta a posta per saggiare le capacità di realismo possibili. E' stata utilizzata una tipica "Cornell Box", ossia un classico test volto a determinare l'accuratezza del software di rendering confrontando la scena renderizzata con una fotografia reale della stessa scena con oggetti, luci e camera reali. In pratica si tratta di una sorta di scatola con un lato aperto da cui inquadrare al scena, con due pareti opposte di colore diverso (verde e rosso, le altre bianche), delle primitive geometriche al suo interno e una fonte di luce dal piano che fa da soffitto. L'autore, (nick Jomanga), utilizzò la sua reflex digitale, una Nikon D70 per questa prova e come motore di rendering Maxwell Render (nella vecchissima v.1.0). In questa versione del software, se pur vecchissimo, fu possibile specificare gli stessi parametri dimensionali e luminosi usati per la scena reale. I risultati in termine di veridicità del sistema di esposizione e illuminazione parlano da soli.



    PHOTO:

    Dimensioni Cornell Box: (LxAxP) 50x50x50cm.
    DSLR Camera: Nikon D70 (sensore 23.7x15.6mm)
    Obbiettivo: (Lunghezza focale) 24mm.
    EXIF: (Parametri di scatto) TV 1/90" | AV f/8 | ISO-200
    Lampada: a fluorescenza Philips Master PL electronic 865 (6500k) | 27W | 1700 Lumen | Efficienza: 62,96 Lumen/W

    MAXWELL RENDER v. 1.0:

    Dimensioni Cornell Box: (LxAxP) 50x50x50cm.
    Maxwell Camera (sensore 23.7x15.6mm)
    Obbiettivo: (Lunghezza focale) 24mm.
    EXIF: (Parametri di scatto) TV 1/90" | AV f/8 | ISO-200
    Lampada: Maxwell Emitter (6500k) | 27W | 1700 Lumen | Efficienza: 62,96 Lumen/W


    Conclusioni.

    Parlando di Lightwave 3D, il mio augurio a questo punto, è quindi che, una volta risolte le priorità, si pensi anche a cambiare radicalmente approccio in determinati aspetti, facendo "nostra" la stessa filosofia "like real" che hanno già adottato altri, perlomeno per quanto riguarda la simulazione della camera, i parametri illuminotecnici e la relativa connotazione con le misure di scala. Sono certo che sarà molto più semplice riprodurre scene reali e ottenere maggiori soddisfazioni dalla conoscenza dei sistemi utilizzati nei set reali, da professionisti del settore, sia in termini di tempo per riprodurre in 3D le scene, che di qualità dei risultati ottenuti.

    Prima di chiudere: ...sò per mia esperienza che conoscere i temi degli argomenti che si vogliono comunicare e riuscire nell'intento di comunicarli, sono cose ben diverse, per cui spero d' essermi riuscito spiegare. Se così non fosse, naturalmente, non avete che da chiedere!

    Fabio.
    Ultima modifica di Fire; 16-11-11 alle 16:07
    "...Secondo tutte le leggi conosciute dell'aeronautica, non c'è modo che un'ape sia in grado di volare. Le sue ali sono troppo piccole per sollevare il suo corpicino grassoccio da terra. ...L'ape, si sà, vola lo stesso. ...Perchè alle api non interessa quello che gli uomini ritengono 'impossibile'...". (Da "Bee Movie")

  3. #3
    Wow, bella roba. Stampo e prendo appunti. Poi ti raffico di domande...

    BRAVO!

  4. #4
    Davvero un bel post... succinto come al tuo solito
    Hai aperto molti "paragrafi" di discussione: dalla teoria del funzionamento Uomo/macchina/software in campo fotografico alla disamina dei limiti dei software 3d in campo fotografico.
    Condivido tutta la tua esposizione. Ma mi soffermerò solo sull'ultima parte (perchè io a differenza tua non son così bravo a scrivere pagine e pagine).
    Parlando dei limiti di LW:
    immagino che il perchè LW sia nato con quei compromessi nella gestione della luce sia abbastanza comprensibile. Negli albori della grafica 3D era già tanto poter usare un algoritmo basico come il raytracing.
    Figuriamoci a pensare d'andare oltre. Il motivo per cui LW, poi, non ha adottato (quando i tempi erano maturi) un sistema di gestione luce/camera/materiali (te ne sei dimenticato ma anche i materiali giocano un ruolo fondamentale per la visualizzazione) immagino risieda nell'impossibilità di stravolgere un sistema oramai conosciuto agli utenti con qualcosa di diverso e incompatibile. non credo che NT stravolgerà a breve il suo modo di gestire camera e luci (per i materiali ha fatto molto con i nodi ma l'usarli o meno è una scelta che fa l'utente e non ti viene imposta) semplicemente perchè perderebbe la possibilità di gestire i vecchi progetti.
    Aver adottato tante semplificazioni ha poi comportato l'impossibilità di "capire" quale metodo usa ogni utente per raggiungere il suo scopo.

    Certo... per me che faccio archiviz farebbe comodo un modo "fisico" per descrivere la mia scena. E a volte mi perdo in prove e controprove per trovare un mix decente.
    Per fortuna ad LW si può da tempo affiancare un motore di rendering che possa supplire alle sue mancanze. MWR o Fray sono i noti dei software che permettono un controllo della luce e della camera utilizzando parametri reali.
    Lo scotto in questo caso è che algoritmi complessi richiedono una quantità maggiore rispetto alle soluzioni più "compromesse" fornite dall'engine nativo. E se è vero che per uno still life a volte la fase di setup con LW è talmente lunga da vanificare il minor tempo richiesto per il rendering... è altresì vero che nelle animazioni questa differenza ancora pesa a favore degli engine biased.

    In ultimo... c'è l'aspetto artistico. E' vero che si è artisti anche utilizzando sistemi reali e che la magia non risiede nel barare sulle regole della fotografia ma, semmai, nel creare l'illusione rispettando le regole. Ma questo richiede una profonda conoscenza di fotografia, fotometria e compagnia bella... e seppur condivido la tua convinzione che conoscere vuol dire crescere... d'altro canto non vorrei che rimanessero solo software 3D che prima di generare un immagine ti chiedano un corso di fisica della luce...
    In fondo abbiam tutti imparato a disegnare con pennarelli e matite... e le nostre casette eran belle anche senza essere realistiche o realizzabili. Qualcuno poi è diventato architetto... altri son rimasti alle casette colorate coi pennarelli... ma tutti han potuto cominciare giocando...


    un saluto
    Mirko

  5. #5
    Licantropo L'avatar di Fire
    Data Registrazione
    Nov 2006
    Località
    N 40°37'6" - E 17°55'2"
    Messaggi
    2,726
    Citazione Originariamente Scritto da Theiamania Visualizza Messaggio
    Wow, bella roba. Stampo e prendo appunti. Poi ti raffico di domande...
    BRAVO!
    Grazie ...son qui apposta!
    Fabio
    "...Secondo tutte le leggi conosciute dell'aeronautica, non c'è modo che un'ape sia in grado di volare. Le sue ali sono troppo piccole per sollevare il suo corpicino grassoccio da terra. ...L'ape, si sà, vola lo stesso. ...Perchè alle api non interessa quello che gli uomini ritengono 'impossibile'...". (Da "Bee Movie")

  6. #6
    oh mamma!!! è lunghissimo....lo leggerò con calma!!! grazie fire!!! pozzo di conoscenza!!! !P
    ci sono cose che è impossibile imparare, per questo c'è lwita.com

    personal web site
    pagina web facebook

  7. #7
    Licantropo L'avatar di Fire
    Data Registrazione
    Nov 2006
    Località
    N 40°37'6" - E 17°55'2"
    Messaggi
    2,726
    @ Nico: ...grazie Nico, troppo buono (...approfitto per ringraziare adesso, perchè d'opo che l'avrà letto sarà molto meno generoso )

    @ Mirko (...non ti quoto altrimenti questo topic c'arriva alle ginocchia ...come lunghezza di pagina intendo eh! ). Grazie anche te e come sai il tuo giudizio mi fa sempre molto piacere. Dunque, le mie intenzioni erano sopratutto quelle di evidenziare i limiti di una trasposizione set-reale / set-3D approssimativa. Forse nella mia analisi l'ho presa un pò alla larga in effetti , ma cercavo d'esser esaustivo. Circa Lightwave e relativi limiti delle impostazioni di camera e di luci, non critico il software proprio per le ragioni che tu stesso citi e che sono comprensibilissime, (del resto sarebbero da criticare anche tutti gli altri "concorrenti" che sono nella stessa situazione), la mia è una costatazione di fatto e un'augurio di miglioramento mirato in questo senso per il futuro. E dei materiali non è che mi son dimenticato, ma quell'aspetto per me viene dopo: ...in questo topic mi sono riferito solo agli "ingredienti" minimi necessari ad una trasposozione realistica di parametri fra attrezzatura cine/fotogrfica reale e virtuale. Gli esempi che porto tuttavia indicano proprio l'auspicio da parte mia che si intraprenda per il futuro quella strada e questo, a prescindere dal livello di attinenza al realismo dell'engine. L'importante è che perlomeno si inizi ad avere una camera che "ragiona" con parametri fotogrfici reali e un sistema di luci che si basi su parametri reali correlati al fattore di scala. Personalmente non credo sia una cosa impossibile e dall'introduzione delle "real lens & real camera" credo che abbiano iniziato a pensarci anche in NT, anche se ora come ora magari hanno altre priorità. Almeno, da vecchissimo utente LW lo spero vivamente!

    Fabio
    "...Secondo tutte le leggi conosciute dell'aeronautica, non c'è modo che un'ape sia in grado di volare. Le sue ali sono troppo piccole per sollevare il suo corpicino grassoccio da terra. ...L'ape, si sà, vola lo stesso. ...Perchè alle api non interessa quello che gli uomini ritengono 'impossibile'...". (Da "Bee Movie")

  8. #8
    Licantropo L'avatar di amb
    Data Registrazione
    Dec 2005
    Località
    Ho attraversato l'Alto Adige
    Messaggi
    1,019
    Dovro' prendere un giorno di ferie per leggere tutto.

    Ma tu come fai? Confessa: hai assoldato un ghost writer.

    Grazie per il lavorone.
    Angelo
    C'era una volta...

  9. #9
    Licantropo L'avatar di Fire
    Data Registrazione
    Nov 2006
    Località
    N 40°37'6" - E 17°55'2"
    Messaggi
    2,726
    Citazione Originariamente Scritto da amb Visualizza Messaggio
    Dovro' prendere un giorno di ferie per leggere tutto.

    Ma tu come fai? Confessa: hai assoldato un ghost writer.

    Grazie per il lavorone.
    Come ho fatto? Semplice, ...l'ho scritto a "puntate" (così non ho dovuto prender ferie anch'io).

    Prego, è un piacere scrivere per ragazzi come voi... (...spero solo a questo punto di non aver scritto troppe baggianate )

    Fabio
    "...Secondo tutte le leggi conosciute dell'aeronautica, non c'è modo che un'ape sia in grado di volare. Le sue ali sono troppo piccole per sollevare il suo corpicino grassoccio da terra. ...L'ape, si sà, vola lo stesso. ...Perchè alle api non interessa quello che gli uomini ritengono 'impossibile'...". (Da "Bee Movie")

  10. #10
    Licantropo SMod L'avatar di Nemoid
    Data Registrazione
    Jun 2004
    Località
    Slumberland
    Messaggi
    3,534
    complimenti Fire, anche il tuo articolo è molto illuminante.

    Sarebbe bello che anche Lw evolvesse verso una direzione più simile alla situazione reale.
    L'unica cosa che ho pensato è però che siccome esistono già altri motori di rendering, appunto non biased e con tutti i parametri al loro posto, per simulare una situazione reale, forse in certi casi è semplicemente meglio usare quelli.

    Lw mi pare nato per vfx e come tale, forse un approccio realistico così spinto non è nemmeno fondamentale...
    Every voyage starts with the first step.

    Facebook: Daniele Mattei
    Pagina Facebook Daniele Mattei Art
    Blog:Encrenoir

Segnalibri

Segnalibri

Permessi di Scrittura

  • Tu non puoi inviare nuove discussioni
  • Tu non puoi inviare risposte
  • Tu non puoi inviare allegati
  • Tu non puoi modificare i tuoi messaggi
  •