Re: modelizzazione in corso...

Inviato da  Tuttle il 11/9/2006 17:39:54
Per precisione:

Non ho detto che il ditino bianco è l'aereo. Ho detto che sottraendo per booleana il frame con il "ditino" dal frame precedente si ottiene il "ditino" stesso. Non solo, l'analisi spettrometrica indica il "ditino" come singola modifica del segnale rispetto al fotogramma precedente. Bisogna analizzare una sequenza non un fotogramma. Questo significa che l'oggetto che il DoD ci indica come l'aereo è il "ditino".

Detto questo, Tifoso forse sarebbe stato meglio tu mi avessi chiesto l'autorizzazione a creare un post sulla mia analisi specifica, anche se in effetti io stesso ne ho accennato giorni fa. Lo dico più che altro perché se la cosa vi interessa vorrei essere io a spiegarla e non altri, che magari ne fanno una reinterpretazione. (per dovere di chiarezza).

Per quanto riguarda l'analisi di un video, ripeto, sottolineo e controfirmo:

L'analisi di un video va fatta senza porvi alcuna modifica alla sua struttura, per via digitale o per via analogica. Comprendere questo fatto è molto semplice; L'aggiunta di filtri in photoshop (che di per se significa già convertire una sequenza video in immagini ricompresse) o altri software simili al fine di "evidenziare" un dato soggetto è di per se una manipolazione bella e buona che va ad inficiare qualsiasi analisi reale del segnale stesso. Indi per cui non si può porre una manipolazione per analizzare un video, ma si devono usare gli strumenti adatti allo scopo.

Waveform, Vectorscopio, Istogramma multicanale, analisi delle componenti RGB, analisi delle dominanti, sottrazione dei canali, conversione del canale R, G e B in canali di grigio...etc. Non solo, bisogna avere una profonda conoscenza dei sistemi ottici, dei percorsi ottici, delle lenti, della meccanica delle focali mobili, delle aberrazioni ottiche, delle aberrazioni luminose, di elettronica, di elettronica digitale, di CCD, di encodifica video, di decodifica video, di algoritmi della compressione, conoscenza dei sistemi di registrazione, conoscenza dei sistemi di controllo della luce come IRIS, aIris, aGain, Gain, Filtraggio ND, polarizzazione della luce, otturazione meccanica, otturazione elettronica e potrei andare avanti per un bel po.

Faccio un esempio, sperando che Massimo non me ne voglia. Lui asserisce nella teoria del primo video DoD che l'alone rosso/arancio dell'eplosione attorno e d'avanti alla Stazione Eliporto sia taroccato, specificando che lui stesso è preparato in materia fotografica per poter fare quell'analisi.
Aimè ma c'è anche qui una leggerezza. Non siamo di fronte a fotografie, ma a fotogrammi video. La cosa è mooooolto diversa.
Un CCD o sensore video non è una pellicola fotografica. In esso agiscono le leggi dell'elettronica e non della chimica. Un sensore CCD, per dirla facile, converte impulsi ottico luminosi in impulsi elettronici, rendendoli codificabili in informazioni di Luma e di Chroma. Questi stessi impulsi hanno per la loro stessa natura elettrica dei valori che guarda caso si esprimono in VOLT. Se questi valori superano certi picchi si ha una ipersaturazione elettrica del sensore. Cosa provoca questa saturazione?
Provoca una espansione concentrica alla zona ipercaricata, creando alonature o aberrazione dei contorni di un area dell'immagine. Il colore rosso, guarda caso, è quello che per la sua natura rende "debole" un CCD. Infatti nel Broadcasting, il colore rosso pieno è tabù, perché esso "sballa" i sensori delle camere rendendo il segnale ipersaturo. Quello che si vede quindi in quel fotogramma non è riconducibile ad una fotografia della realtà, ma è un aberrazione di ipersaturazione del sensore CCD della camera CCTV. Questo per far capire che quando si tratta col video bisogna avere molte conoscenze anche in campo elettronico più che fotografico.
Non solo, la stessa analisi dice che sarebbero stati centinaia i fotogrammi da ritoccare per poter rendere un filmato in tempo reale dove si vedesse l'intero aereo per tutto il percorso. Anche qui ci sono diversi errori di leggerezza.
La focale della CCTV è un grandangolo molto spinto. La distanza fra l'oggetto "aereo" e il pentagono che viene inquadrate nella sua longitudine è di circa 180/200 metri. Significa che in tempo reale l'aereo a velocità di 800KM/h (222 metri/sec) avrebbe percorso 7/8 metri a fotogramma, quindi considerando che il sistema NTSC (quello americano) cattura 30 fotogrammi al secondo avremmo avuto all'interno di soli 30 frame tutto il percorso e anche più. (resta fuori ovviamente tutta la discussione sulle velocità di otturazione per poter vedere l'aereo e non una scia). Inoltre nella postproduzione di questo tipo non si usa il RITOCCO ma il rendering. Significa che se applico una maschera nell'effetto esplosione alla struttura Eliporto questa impedirà per tutta la sequenza di venire intaccata dall'effetto stesso e con essa l'oggetto isolato. Qualunque esperto di postproduzione non commetterebbe mai un errore così grossolano da porre un effetto particellare tridimensionale o un oggetto 3d su una immagine piatta senza prima suddividerla in piani tridimensionali. (la stessa tecnica che si usa nel cinema per inserire oggetti virtuali in riprese reali)
E ancora, non è l'operatore a fare il cosidetto rotoscoping ma è il software che una volta impostati tutti i parametri effetto o cgi ne renderizza frame by frame l'intera sequenza.
Nessun fotoritocco di centinaia di foto, ma semplicissimi interventi CGI su appena 25/30 fotogrammi.

Quindi anche se io e Massimo possiamo essere d'accordo sulla manipolazione, non lo siamo sulle modalità. Bisogna essere precisi a prescindere dalle nostre opinioni.
Spero con queste due righe di aver fatto comprendere che l'analisi dei video non è cosa facile.

Saluti.

Pier Paolo

Messaggio orinale: https://old.luogocomune.net/site/newbb/viewtopic.php?forum=3&topic_id=948&post_id=47524