Visualizzazione Stampabile
-
Citazione:
Originariamente scritto da polymet
io gia' ho espresso la mia opinione,dicendo che la differenza su materiale bd possono farla i vari filtri e algoritmi che sono implementati sui lettori di fascia alta e nemmeno sempre questo accade.
La prova che ho fatto io sui due Pioneer ieri sera è stata fatta in modalità Direct quindi in teoria con il minimo intervento del processore interno. Il Direct in pratica non è realmente direct perchè se è possibile intervenire sui vari controlli (croma, dettaglio ecc, ecc)anche impostato su questa funzione vuol dire che il segnale oltrepassa COMUNQUE il processore addetto a queste regolazioni. Sono d'accordo con te che l'efficacia di intervento dei vari lettori ha comunque un ruolo importante, in alcuni casi anche peggiorativi a mio avviso, come è logico attendersi sul 91 le regolazioni sono molto più efficaci che nel 51 e spesso sono migliorative...
-
Citazione:
Originariamente scritto da *****
nel campo digitale le cose siano molto più complesse di quello che puo sembrare, penso che pochi siano in grado di spiegare certe cose
Mica si tratta di cose magiche, ci sono progettisti che fanno degli oggetti che devono essere venduti, non credo che alla Cirrus o alla DVDO vendano a Marantz dicendo cose generiche e non documentate.
Citazione:
Originariamente scritto da *****
si vede che non hai capito bene quello che ha scritto a quanto pare, prova a rileggere...
Rileggo, ma scrivete entrambi cose senza nessun supporto, a parte quello che dite di aver visto/sentito. Se qualcuno mi sa fare un esempio, lo accetto molto volentieri.
Faccio un esempio di un test fatto con l'audio:
http://www.designwsound.com/dwsblog/?page_id=535
qui rippano un brano con software diversi e il risultato e' sempre identico.
Quindi: o gli algoritmi di correzione degli errori funzionano tutti perfettamente e ricostruiscono senza errori il segnale originario, oppure il numero di errori e' irrilevante.
In base a quali test o documenti posso vedere che il codec usato per i bluray e' in evoluzione e il mio lettore, salvo aggiornamenti, legge lo stesso un fantomatico 'core', tralasciando i dati aggiuntivi?
Da cosa deduco che l'1% di dati sbagliati comporta una perdita di qualita' e non semplicemente un 1% di pixel di colore sbagliato?
Perche' quando vedo 'meglio', vuol dire che l'informazione originale e' trasformata in modo diverso dal lettore/decodificatore, come puo' accadere per il rescaling, che ogni casa fa come vuole.
Se il mio lettore si vede meno definito di un altro, significa che la ricostruzione dei frame a partire dall'informazione salvata sul disco viene fatta in modo diverso da diversi integrati di decodifica.
Una cosa che potrebbe in effetti essere diversa e' la successione delle immagini per dare maggiore o minore fluidita'. Se il frame n.1 e' uguale per tutti e il n.2 e' un po' diverso, a seconda del decoder, il movimento puo' essere piu' o meno fluido. Ma questo non lo so e non so se la decodifica puo' essere diversa, fornendo frames diversi o se lo standard non lo prevede e lascia ampio spazio di interpretazione a chi sviluppa i software per i lettori.
-
Citazione:
Originariamente scritto da Marco Marangoni
Rileggo, ma scrivete entrambi cose senza nessun supporto, a parte quello che dite di aver visto/sentito. Se qualcuno mi sa fare un esempio, lo accetto molto volentieri.
Faccio un esempio di un test...
un esempio di test letto e sentito...come vedi fai lo stesso tu..porti cose sentite e recuperate in giro...solo che non accetti alcuna spiegazione..vuoi solo che ti porti una rivista o che intervenga una persona autorevole a supporto..andiamo...
ti porto elementi pratici..prendi un lettore, usa la suite nero o una a caso e fai un test di errori in lettura ottica su un qualunque cd o dvd in tuo possesso...cambia lettore e vedrai i risultati con i tuoi occhi
poi fai una ricerca veloce su internet e cerca "bad sector" ed errori "pi/po"..sono comuni in tutto il mondo dell'informatica, tutti quelli che hanno un minimo di dimestichezza con un pc sanno di cosa si parla..
nessuno ha poi detto che in pratica il risultato non sia analogo, perchè su questo c'è accordo...non più di un post fa, ho specificato ulteriormente che nella pratica il risultato è indistinguibile perchè gli algoritmi funzionano nella maggior parte dei casi..quello che sottolineo è che non è detto che sia sempre così..
vuoi un'altra prova?prendiamo l'articolo da cui parte la discussione..come mai l'articolo verte sulla sorpresa di coloro che hanno fatto i test?
perchè a rigor di logica per loro (che sono esperti) la differenza doveva esserci, solo che non sono stati capaci di trovarla (con test poco approfonditi a dire il vero)..ora a meno che non siano pazzi, avranno avuto motivi per fare questo controllo...
se fosse come dici, e cioè che è sempre tutto perfetto, perchè fare una prova?perchè fare un articolo?perchè mostrare tanto stupore?
perchè nell'articolo che hai riportato tu hanno fatto il test?cioè...se in teoria non ci potessero essere errori perchè fare il test?
il test che hai riportato (come ogni altro), dice solo che, "nonostante ci sia la possibilità teorica di errori, in pratica gli algoritmi fanno il loro lavoro egregiamente..il risultato è identico nella maggior parte dei casi (perchè non si può dare la certezza visto che in teoria non la possiamo avere)"
e continuo con le domande...perchè i lettori hanno prezzi così differenti se spesso fanno le stesse cose?perchè esistono differenti tecniche di lettura e scrittura dei supporti?perchè esistono cavi schermati?perchè esistono i checksum?cosa sono i checksum?perchè esistono differenti ottiche?
sai perchè il codec e in evoluzione e non solo lui?bene..ti rispondo subito...ogni quanto si aggiorna un lettore bd?lo fa di continuo perchè non c'è ancora uno standard..alle volte è necessario che si aggiorni java,ogni tanto che si aggiorni il meccanismo di salto degli errori programmati..(sono i casi in cui i bd presentano in visione dei film microscatti...es. wall-e)...alle volte c'è un semplice aggiornamento con l'aggiunta di codec video...
in molti, moltissimi casi, l'aggiornamento ha come scopo quello di risolvere problemi, problemi di lettura, problemi di compatibilità (questi problemi indicano errori nei programmi..errori negli algoritmi...)
sai cosa sono le protezioni hw?sono, nella maggior parte dei casi, comuni errori inseriti all'interno del disco con lo scopo di far bloccare il lettore...sono errori impossibili da riprodurre in masterizzazione ( o almeno questa è l'idea) e i cui dati sono inseriti nel disco medesimo..il sw nel disco dice al lettore che, se non trova quegli errori in quegli specifici posti, non deve far partire il disco...così un disco masterizzato non avrà quegli errori, quindi non partirà..
non si discute su che ci siano errori nel mondo digitale..questo è evidente a tutti e non serve una conferma "Divina"....altrimenti un qualunque elemento della catena video sarebbe intercambiabile con qualunque altro (per chi non adopera filtri o operazioni di upscaling sulle immagini)...
poi esistono algoritmi di controllo e recupero, il cui compito è quello di ripristinare i dati o bloccarne il passaggio se presentano incongruenze con un segnale di partenza (checksum..ma il termine è generico)..ma chi fa gli algoritmi?li fa un uomo..e siccome l'uomo sbaglia, l'algoritmo può sbagliare...dal momento che esistono molti codec, molti algoritimi di correzione (uno per ogni lettore, uno per ogni ottica) e molti metodi per il recupero, ecco perchè in teoria gli errori ci possono essere, ma in pratica sono nulli o comunque ridotti ad una percentuale totalmente ininfluente...
come vedi, non ti porto "una" prova a supporto, ma una valanga...e ripeto che quelle che porti tu, non fanno che confermare quello che sto dicendo io dall'inizio...
vorrei ricordare inoltre, che non si è mai discusso di questo..il problema era che l'articolo dava impressioni sbagliate al lettore poco accorto o poco informato...e si cercava di far presente che esistono una serie di motivi che rendono i lettori diversi fra loro, ma non di certo il fatto che rendessero in maniera analoga quando non interviene il processore...
sull'argomento non intervengo più..chi ha letto questo 3d ha già informazioni sufficienti per farsi una sua idea ;)
-
Nicholas, il tuo discorso sull'ottica è interessante. Ma quello che Marco ed io diciamo è che non c'è una corrispondenza dimostrata ta qualità d'ottica e di immagine (mentre sicuramente c'è per il cd audio, il cui formato non è un file system).
Di siucro un ottica migliore potrà portare a lettori più veloci e duraturi, meno soggetti a pause da rebuffering con suppport danneggiati etc.
-
mmm...ho appena detto che in pratica non si trovano differenze...che sarebbe stato interessante far far un test fra lettori top e entry level proprio per vedere se in pratica se ne hanno...;)
io so che diciamo la stessa cosa dall'inizio, solo non è ammissibile partire dall'idea che digitale sia "sempre" sinonimo di perfezione perchè in teoria non lo è...solo dell'aspetto teorico si parla..lo ripeto dall'inizio..
in pratica sono io stesso che più e più volte, dando consigli, ho ripetuto che non è su quell'aspetto che un lettore si differenzia da un altro..e i miei primi interventi in questo 3d lo evidenziano ;)
-
infatti è proprio per questo che il test è interessante. Le differenze ci sono anche bai-passando tutto il postprocessing. Direi quindi che esiste qualità e qualità anche negli algoritimi di decompressione, ed è qui che l'argomento si fa interessante!!
Si sa che nel campo hi-fi esistono tanti specchietti per allodole, e sappiamo che il lettore blu-ray da 17000 dollari ( http://www.avmagazine.it/news/sorgen...ondo_4587.html ) sia tanto fumo e non tutto arrosto. Però immagino che la qualità di decompressione video esista, e non è uguale per ogni lettore. Le differenze trovate in questo test ne è la prova. Peccato che abbiano avuto degli ottimi mezzi ma poca iniziativa/fantasia/conoscenza per fare un test veramente utile e interessante
-
per quello che mi riguarda, ho fatto vari confronti tra i lettori che ho a casa : ps3, denon 3800, samsung 1500 e 2500. e la differenza tra 3800 ed il resto e' abissale, pur con tutti i filtri disattivati, non parliamo poi attivando i filtri.
ho avuto modo di confrontare anche denon 2500 e 3800 e le differenze tra le due macchine c'erano e molto ben visibili.
-
Da Dday altra carne sul fuoco!!
Adesso si valuta l'upscale:
http://www.dday.it/redazione/639/Per...cale-Test.html
I primi test preliminari parlano chiaro...il sony 760 è tutt'altro che disprezzabile, mentre il cambridge fa una figura barbina...;)
-
Misurare le prestazioni da un frame in pausa a mio avviso ha poco senso, le prova va fatta in play e nelle immagini in movimento dove i vari algoritmi devono lavorare per ridurre al minimo gli artefatti e le scalettature. Una foto statica non rende giustizia non avendo tutti i lettori lo stesso modo di lavorare e deinterlacciare. Come al solito DDay ha confermato la loro pochezza, meglio che recensiscano le lavatrici...
-
"quella del Cambridge soffre di qualche problema di deinterlacing e scaling"
deinterlacing? stiamo parlando di contenuto progressivo.. eppure il cambridge si comporta proprio come se fosse 576i
scaling? non sanno scendere un po nel dettaglio?
-
Citazione:
Originariamente scritto da Picander
deinterlacing? stiamo parlando di contenuto progressivo..
Non direi...si parla di DVD...
-
i film in dvd non sono interlacciati!
-
-
nella codifica mpeg2 c'è un flag che dice se il contenuto è top field first, un altro per il repeat_field, e uno per il progressive.
I film sono tutti codificati come progressive. Se apri un fotogramma di un film con un qualunque programma per pc vedrai che il frame è codificato intero, e non seghettato nei due semiquadri.
-
no ti sbagli...e non perchè in teoria tu non abbia ragione, ma perchè la registrazione è interlacciata (il filmato originario progressivo, ma registrato interlacciato sul disco) e i flag spesso e volentieri sono sbagliati...
per questo i lettori dvd devono avere un buon processore per il deinterlacing (possibilmente motion adaptive), per analizzare l'immagine indipendentemente dai flag e per comportarsi di conseguenza...altrimenti non servirebbe..qualsiasi processore riesce a leggere i flag...
i lettori che si basano sui flag o si comportano sempre in modalità video sono quelli che offrono le prestazioni più modeste...
a questo si aggiunge che, una volta identificato il contenuto specifico (progressivo o interlacciato), il lettore deve comportarsi di conseguenza..e c'è modo e modo di farlo...
non dimendichiamo neanche che molti dvd provengono da materiale anche in origine interlacciato (documentari, serie tv, sport...)..
leggi il 3d di Luciano Merighi nella sezione calibrazione..ci ho messo un pò a capire, ma spiega molto bene il tutto...;)
analizzare una immagine in pause non ha senso..questo perchè il fw potrebbe fare altro in pause...
vi faccio un esempio..qualunque dvd con il 2500 si vede segmentato in pause..e di certo non ha problemi nel riconoscimento dei semiquadri...;)