Bjørn E.
Som vi alle vet måles brikkens oppløsning i et antall pixler, la oss si 24Mpixler for et normalt moderne kamera.

Men vi vet alle at det trengs fire brønner for å lage et fargepixel, rød, grønn og 2*blå.

Betyr det at bildet egentlig vil bestå av 24Mpixler / 4 = 6Mfargepixler?

Og at et pixel egentlig betyr en brønn, med fargefilter, linse og det hele?

Nøkkelord:
#1
#1
-
Avsluttet konto 76534

Bayer sensor er 50% grønn og 25% rød og blå hver.

Hilsen
Thomas
Bjørn E.
Takk, ser at jeg bommet med blå - blå, det skal være grønn - grønn.
#2
#2
-
Avsluttet konto 119248
Bildebrikker av Foveon-type (navn på utvikler) har RGB-filtrering (korrigering: Det er ikke snakk om stablet fargefiltre, men om RGB-utlesing av samsvarende bølgeområder) for hver enkel piksel, med oppløsning deretter - maksimal oppløsning.

Bayer-matrise er RGGB-filtrering, som gir grovt regnet rundt 70% av maksimal oppløsning, basert på informasjon fra Foveon (før teknologien ble solgt til Sigma, svarte ansatte i firmaet velvillig på spørsmål om teknologien).

Med Bayer-filtrering må man ikke gå i fellen og tro at det bare er separerte fargedata som brukes for å danne et bilde, det brukes også sammenfallende data fra ulike filtere.

Ut fra dette ser vi at det trengs ca. 30% flere piksler for en Bayer-sensor uten AA-filter for å oppnå oppløsning tilsvarende en sensor med RGB-filtrering for hver enkelt piksel. Praktiske erfaringer viser omtrent det samme.
Jonny N.
Her sammenlignes Nikon D800E og Leica Monochrom 1. generasjon (36MP vs 18MP): http://blog.mingthein.com/2012/05/27/leica-m-monochrom-vs-d800e/

Nikon D800E har vel et filter som skal motvirke slørefilteret foran sensoren? I så fall vil nok en D810 gi bedre resultat. Og selvsagt dagens D850.
Bjørn E.
Min erfaring med Monochrom er også at det faktisk slår en D800 i sort/hvitt. Ganske rått egentlig siden det tross alt er 18MP mot 36MP.

Det forteller en god del om hvor ille fargefiltrene foran brønnene er. Det er det også lett å forstå dersom man ser et bilde av fargefiltrene tatt med mikroskop. Nøyaktigheten er rett og slett elendig.
-
Avsluttet konto 119248
Er det ille at man får farger?

Alternativt kan du kjøre tre filtrerte opptak og få farger fra et monokrom kamera. Dette prinsippet ble benyttet allerede tidlig i fotografiets barndom med pankromatisk film, og i digitalkameraenes og skannernes barndom, som 3-pass skanning. For kameraer til astrofoto benyttes 4-pass, RGB + L (Luminous).
Bjørn E.
"Bildebrikker av Foveon-type (navn på utvikler) har RGB-filtrering for hver enkel piksel, med oppløsning deretter - maksimal oppløsning"

Dette forstår jeg ikke, dersom en brønn har både rød, grønn og blått filter kommer ikke lys igjennom overhodet.

Tror derfor at det lett er mulig at Foveon muligens er en vanlig sensor som bader i snake-oil.

Tross alt er det ingen her på forumet som vet eksakt hvordan disse sensorene konstrueres og ikke minst hvordan hw interface er. Vi vet akkurat det produsenten ønsker at vi skal vite.
Jonny N.
Snakker vi om Fake News nå? Det bare manglet.
Bjørn E.
Well, den forklaringen Magne gir på Foveon kan ikke være korrekt. R+G+B filter blir svart, det er helt sikkert. Hvordan de har laget brønnene sine? Aner ikke, men forklaringen er feil.
-
Avsluttet konto 119248
Jeg gjorde nok en grov bommert da jeg skrev fargefiltrering på Foveon-type sensorer! Dette er nå korrigert i en parantes, slik at ikke innlegget ditt skal henge i løse lufta.

Det er ikke snakk om RGB-filtrering. Her er det snakk om utlesing av data ut fra hvordan det lysfølsomme lagene i sensoren reagerer på lys av forskjellig bølgelengde.
Dag T.
1
Foveon-brikken utnytter det faktum at lys med forskjellig bølgelengde når forskjellig lengde inn i sensoren. De regner med at det lyset som kommer lengst inn er rødt, siden det har lengst bølgelengde, osv. Så de foretar flere målinger i samme piksel ved forskjellige dybder.
-
Avsluttet konto 119248
Jeg har fulgt med på denne sensorteknologien siden Foveon først offentliggjorde at de ville komme med en slik sensor. Sony m.fl. har ulike patenter på tilsvarende metode for å lese ut fargedata per piksel.
-
Avsluttet konto 119248
Bjørn E skrev:
"Bildebrikker av Foveon-type (navn på utvikler) har RGB-filtrering for hver enkel piksel, med oppløsning deretter - maksimal oppløsning"

Dette forstår jeg ikke, dersom en brønn har både rød, grønn og blått filter kommer ikke lys igjennom overhodet.

Lysbølgene avgjør hvor dypt ned i brønnene lyset trenger, og dermed kan r+g+b leses ut fra en og samme piksel.

Såre enkelt prinsipp, men teknologisk krevende å gjennomføre i praksis.
-
Avsluttet konto 76534
Teknisk umulig med dagens sensor teknologi derfor er Foveon sensor oppbygget in layers. Et pixel med blå filter øverst så et pixel med grøn filter og nederst et pixel med rød filter.
-
Avsluttet konto 119248
Men dette er allerede korrigert. Jeg uttrykte meg feilaktig innledningsvis, men det rokker ikke ved <foveon-prinsippet.

Det er IKKE snakk om RGB-fitrerte lag, men avlesning av lys i ulike bølgelengder i en og samme piksel - utlesing av RGB-data! Og dette er langt fra umulig, siden teknikken har vært i praktisk/kommersiell bruk i mange år allerede.
-
Avsluttet konto 76534
« ..., men avlesning av lys i ulike bølgelengder i en og samme pixel ...»
Foveon har 3 pixler stacked over hverandre på grunn av lys i ulike bølgelengde gå forskjellig dyp in i nyttet sensormaterial. Du finner på net patentinformasjoner om dette eller så på sigma sine websider.
-
Avsluttet konto 119248
Avlesingen av RGB-data for Foveon-type sensorer skjer innenfor hver enkel piksel, alt etter hvor dypt ned i sensoren bølgeområdet til lyset trenger. Som jeg har skrevet tidligere. Jeg kjenner meget godt til prinsippet.

Er dette Fake News, umulig, eller?
-
Avsluttet konto 76534
Hvis du sier at i en Foveon sensor i en og samme pixel blir utlest RGB verdier er det teknisk set falsk om du kjenner prinsip eller ikke.
Et pixel er definert ( i sensor teknik) som en photodiode. En photodiode få in photoner og vandler denne i elektroner. Avhengig hvor mye photoner kommer in få vi en bestemt antall (charge) for hver enkelt pixel. Denne blir lagret i en raw file som en gråverdi/lysverdi og er analog. Color filter bestemmer hvilken bølgelengde blir registrert av et pixel på en bayer array. Bayer array gjøres et spatial multiplexing, samme som menneskers øyene.
Foveon sensor nytter omtrent samme prinsip men ulike bayer (2 dimensjonalt pixel array) finner vi her en tre dimensjonalt anordning av pixler (depth multiplexing), samme som på gamle tripack film.
Her et link til Foveon sin egen beskrivelse på sigma dp3 http://www.sigma-foto.de/kameras/sigma-dp3-merrill/techni...no_cache=1
Og her link til Foveon direkte http://www.foveon.com/article.php?a=67
Leg merke til at begge (og alle andre i verden) beskriver en stacked design av sensor med 3 layer photodioder.
Jeg har jobbet med forskjellige sensor teknologi ikke bare som fotograf men også på rent teknisk fronten og følger teknisk med de siste årene. Jeg har ikke sett en utvikling hvor en kan avlese alle rgb verdier på en pixel, eller bedre, photodiode.
Kanskje de er nye utviklinger jeg har ikke fåt med meg men hvis det stemmer du skriver, alle rgb verdier på en pixel, er alle problemer som støv, data mengde osv. være løst og bayer sensor vill være helt utdatert.
Lasse S.
bildebilde
Thomas W skrev:
Teknisk umulig med dagens sensor teknologi derfor er Foveon sensor oppbygget in layers. Et pixel med blå filter øverst så et pixel med grøn filter og nederst et pixel med rød filter.


Det er ikke riktig. Foveonbrikken har ikke fargefiltere på de tre lagene, men baserer seg på at energien/bølgelengden på lyset trenger ulike langt inn i silicon. Forskjellen på de tre ulike lagene danner grunnlaget for informasjonen om lysets faktiske bølgelengde, farge. Dette er også årsaken til ISO problematikken. Det dypeste laget mottar langt mindre energi enn det grunneste.
I den nyeste generasjonen sensor, "Quattro", er dette forsøkt bøtet på ved å gjøre sensorene i de to dypeste lagene fire ganger så store. Sammen med det høyoppløselige øverste laget gir denne løsningen også nok informasjon til å beregne fargen for hver enkel pixel. Prisen er et uttrykk som liger mellom en "ekte" Foveon og en Bayer. Etter MIN mening.
Jeg har fotografert med Foveon i minst 10 år og gjort mange sammenligninger med Bayerkameraer. Et interessant forsøk er å avfotografere et rastrert trykk på en avstand hvor frekvensen på rasterpunktene nærmer seg pixelpitchen på sensoren. Begge teknologier gir fremdeles et rastrert bilde, men Bayerkameraet gir raster i samme farge som det avfotograferte området, f.eks. hudfarge. Foveonbrikken gir raster i de fire (cmyk) trykkfargene.
Sorthvittbilder fra mitt 15 mpix Foveonkamera er helt på høyde med Leica Monochrom, og mye bedre enn Bayerkameraer. Bayermatrisen påvirker altså også luminansverdiene negativt.
Geir B.
Silicon, eller rettere sagt silikon på norsk, er en samlebetegnelse på organiske modifikasjoner av silisium-oksygen-forbindelser. F.eks. bruker vi silikon som fugemasse. Grunnstoffet som brukes i sensorer heter silisium på norsk.

MVH

Geir
Dag T.
En god grunn til å være presis her, ja. Jeg har ertet tekniske skribenter som har plumpet ut med «silikondetektorer» med å spørre ordet er noe man bruker for å detektere glamour-modeller :-)

Forøvrig heter fenomenet som Foveon bruker på engelsk «penetration depth» eller «skin depth» og begge kan skape morsomme misforståelser når assosiert silikon.
Lasse S.
Silicon = silisium
Silicone = silikon
Dag T.
1
Joda, men det er fort gjort å tro at "silicon" er en skrivefeil i en ellers norsk tekst. :-)
Lasse S.
1
Sant, Dag. Jeg husket ikke i farten hva det het på norsk :)
-
Avsluttet konto 76534
Jeg har glemt «tilsvarende blå filter» osv. Hvis du leser neste innlegg er det beskrivet rett.
At bayer matrise påvirker luminansverdier stemmer men på like høyde negativt som alle andre «filter» og påvirkning er mye mindre en nå lyset må passere flere lag av silisium ( ISO problematikken).
Hva jeg ikke helt forstå er hvordan et sensor med 3 grunn farger kan, uten omwandling, gi ut en CMYK raster.
Lasse S.
Jeg mente ikke at Foveonbrikken gir et CMYK raster, men at den klarer å gjengi fargene i CMYK rasteret bildet er bygget opp av. Når rasteret blir på størrelse med et sensorelement kan ikke Bayermatrisen se fargene, men bare luminansverdien av mønsteret.
-
Avsluttet konto 76534
Sorry, enda ikke klart hva du mener. Bayermatrisen ( hva er dette?) ser prinsipielt ingenting hvis du mener filter. Denne er bare på plass for å «tagge» lyset som treffer selve pixel med rød, grønn eller blå. Hvis du mener selve pixel så ser denne alltid bare luminansverdier uansett hvor stor/små er pixel pitch eller mønstret på objekt en fotograferer.
Lasse S.
bildebilde
Thomas W skrev:
Sorry, enda ikke klart hva du mener. Bayermatrisen ( hva er dette?) ser prinsipielt ingenting hvis du mener filter. Denne er bare på plass for å «tagge» lyset som treffer selve pixel med rød, grønn eller blå. Hvis du mener selve pixel så ser denne alltid bare luminansverdier uansett hvor stor/små er pixel pitch eller mønstret på objekt en fotograferer.


OK. Når fargepunktene i det trykte bildet blir så små at de er mindre enn 4 sensorelementer kan ikke Bayermatrisen/interpoleringsrutinen fastslå fargen på punktene. Bare luminansverdien.
Her er et annet eksempel: Jeg har avfotografert et utsnitt av min monitor med Sigma SD14 og EOS 1Ds. Disse har omtrent like stor pixeltetthet på sensoren, så jeg har tatt bildet fra samme avstand og brukt samme objektiv, Olympus OM 50/3,5 Makro. Ser du forskjellen?
-
Avsluttet konto 76534
Hvilken bilde er hvilken sensor?
Hva denne bilde viser er at et system med bayer sensor gi ut interpolerte (beregnede) farger og et system med Foveon gi ut «direct» farger. Detaljer er på begge nederste bilder det samme. Fargene er også forskjellig på grunn av forskjellig definerte bølgelengde for de 3 grunnfargene.
Jeg spørre igjen hva du mener med bayermatrissen. Hvorfor mener du at en interpoleringsrutine ikke kan fastslå farge nå detaljer er mindre enn 4 pixler?
Jeg sier ikke nei til at et Foveon Sensor har mye høgre detaljgjengivelse en bayer basert sensor men dette henger sammen med at du ikke trenger å interpolere fargene i et bilde, ser monochrom sensor uten interpolering.
Lasse S.
Venstre halvdel av de to bildene er Foveon, høyre Bayer. Foveonsensoren gir en riktig avbildning av RGB-matrisen i monitoren, Bayersensoren gir bare falske farger, dårlig definisjon av den sorte masken i RGB-matrisen og i tillegg fargemoitee til tross for at den har AA-filter.
Bayermatrisen kan ikke gi riktig fargeinformasjon fordi den ikke fanger opp riktig informasjon i nabopixlene.
-
Avsluttet konto 76534
Og dette henger sammen med at en Bayersensor system INTERPOLERER omtrent 75% av informasjoner i en file som kommer ut av systemet. Dette har ingenting å gjøre med pixel pitch.
-
Avsluttet konto 76534
Ser også ingen svarte mask på Foveonbilde ;-)
-
Avsluttet konto 119248
Her er en grei og enkel forklaring på det elementære, synes jeg - her med Bayer-matrise:

http://www.sensorland.com/HowPage090.html
Lasse S.
bilde
Thomas W skrev:
Ser også ingen svarte mask på Foveonbilde ;-)


Her er et 1:1 macro bilde av monitoren. (Tatt med Bayer). Dette er altså hvordan bildet burde se ut på pixelnivå.

Det øverste av de forrige bildene er actual pixels. Det nederste er et kraftig forstørret utsnitt av det øverste for å vise tydelige enkeltpixler
-
Avsluttet konto 119248
1
Dette viser hvordan skjermen ser ut. Skjermen er ingen sensor.
-
Avsluttet konto 76534
Lasse S.
bilde
Magnar W. F skrev:
Dette viser hvordan skjermen ser ut. Skjermen er ingen sensor.


Jeg beklager dårlige formuleringer som fører til misforståelser.
Håper dette bildet tydeliggjør hva jeg vil vise. Her er bilder av skjermen forstørret opp så detaljene har størrelse som tilsvarer Macrobildet.
-
Avsluttet konto 119248
Tar du bilder av dataskjermen, ser du bare en oversettelse av de digitale dataene til et format som skjermen kan vise - et analogt bilde.

Tar du bilde av en utskrift av et bilde, ser du bare et rastermønster som er en oversettelse av de digitale verdiene til fargepigmenter - et analogt bilde.
Lasse S.
1
Men Magnar, jeg viser deg hva som skjer når du avfotograferer et motiv der fargemønsteret er så lite at et Bayerkamera ikke kan gjengi det. Om det er mønsteret i en skjerm eller hollandske blomsterbed er uvesentlig.
En Bayersensor må ha mye høyere pixeltetthet for å gjengi fargeinformasjonen korrekt. Luminansinformasjonen er avhengig av litt høyere tetthet. Dette er jo kjente ting, men jeg prøver å vise det i praksis. Verre er det ikke.
-
Avsluttet konto 76534
Jeg tenker problem er at du anta at 1 pixel fra en Bayersensor er like et pixel i et ferdig bilde? Dette er det ikke.
Et pixel i et raw, TIFF, osv. file er bare et matematiske definisjon av denne photoner som treffer et pixel. Avhengig av interpretation gjennom A/D konverter, signalprocessor og de tilhørende interpoleringsfunksjoner få vi hermed anvisninger hvordan et pixel skal ser ut hvis vi dette vise på en display eller print. Avhengig hvor bra interpoleringsalgorytmer estimerer blir endelig bilde. Et eksempel for Bayersensor:
De fleste High end objektiver i dag har en oppløsning som tilsvarer omtrent 6 mikrometer kantlengde på en pixel. Dette mener at på en fullformat sensor 24Mpix, APS-C 9Mpix og MFT 5Mpix er bra nok for å få full oppløsning. Likevel få du naturligvis et bedre oppløsning med 36Mpix sensor en med 24Mpix på fullformat. Dette henger sammen med høyere samplingsfrekvens og derfor mer informasjon for interpoleringsalgorythmer.
Lasse S.
Dette er kjent stoff, ja, men ikke det jeg snakker om. Jeg prøver kun å vise hvor dårlig Bayersensoren er til å gjengi høyfrekvent fargeinformasjon. Det er ikke mulig å interpolere inn informasjon som ikke dekker stort nok areal på Bayermatrisen.
-
Avsluttet konto 76534
Hvis dette er kjent stoff for deg er konklusjonen din enda mer uforståelig for meg. Stopper nå diskusjonen her.
Lasse S.
OK. Jeg går ut fra at bildene mine ikke er klare nok...
#3
#3
-
Avsluttet konto 76534
Litt utfyllende
Standard Bayer sensor har før hvert pixel et fargefilter i rød, grønn eller blå. På grunn at grønn har største andel i hvor «lysstyrke oppfatning» (72%) og at objektiver normalt har beste ytelse på grønn finner vi en fordeling av 50% grønn, 25% rød og 25% blå. Dette mener at hver pixel bare leverer informasjoner for et farge.
Sony og Kodak hadde også hvite piksler i forskjellige sensor modeller. Også hadde for eksempel Sony’s DSC-F828 2 forskjellige grøn (RGEB sensor) og Canon’s 7D hadde forskjellige grønfilter i et 2x2 pixelblock.
I tilleg finnes på mange sensorer også svart piksler for å få info om temperature noise.
Et sensor kan ser ut som
1.rad grøn rød grøn rød grøn rød ...
2.rad blå grøn blå grøn blå grøn ...
3.rad grøn rød grøn rød grøn rød ...
På grunn av denne oppdeling er det nødvendig å beregne manglende fargeinformasjon. Dette mener at for eksempel i rad 1 må 50% grøn informasjon beregnes, 100% av blå og 50% av rød. Eller bedre 50% av grøn og 75% av rød og blå må beregnes hvis vi ser på hele sensor areal.
Fordi vi kan sier at, under normale omstendigheter, 2 pixler av samme farge ved siden av hverandre bare liten forskjell i fargene er det mulig å interpolere manglende fargeinformasjon.
Teknisk sett har et bayer sensor derfor bare 25% oppløsning hvis vi gå ut fra en artefaktfritt bilde.

Hilsen
Thomas
Bjørn E.
Det betyr at du mener det samme som jeg, virkelig oppløsning på et bilde er antall megapixler / 4
-
Avsluttet konto 76534
Teknisk/physikalisk på sensor niveau helt riktig men ikke på ferdig bildefil.
-
Avsluttet konto 119248
Dere må ta med alle faktorene i ligningen, ellers blir det bare tull! Eller Fake News, som det ble nevnt ovenfor.
-
Avsluttet konto 76534
-
Avsluttet konto 119248
Her blandes bl.a. detaljoppløsning og farger. Og det tas ikke hensyn til hvordan signaler behandles fra analogt til digitalt, eller hvordan digitale data prosesseres til den ferdige råfila.
-
Avsluttet konto 76534
Derfor skriver jeg på sensor niveau.
-
Avsluttet konto 119248
Siden du ønsker et enkelt svar: Har du prøvd den enkle L*a*b*- testen?

Hva skjer her?
Hvorfor?

På sensornivå registrerer alle piksler bildedata (24 Mp i eksempelet ditt).
En slik sensor har 24 Mp, uavhengig av hvilken filtermatrise som dekker sensoren.

Regnes Bayer-matrisen å være på sensornivå, forresten, siden farger bestemmes ved hjelp av en demoasikk-prosess, en filtreringsprosess som er en del av signalbehandlingen?
-
Avsluttet konto 76534
Spørsmål var hva en sensor registrerer. Jeg har klart skrivet at sin utsagn ikke stemmer hvis vi så på bildefil, respektive etter demosaic, sharpening, auto white balancing og alt annet hva tilhører for å få alle bildeinformasjon best mulig på plass.
Min punkt er at et sensor leverer bare 25% virkelig informasjon og alt annet blir interpolert. Ser ikke problem med min utsagn.
#4
#4
Bjørn E.
Men er min konklusjon korrekt, er en pixel en brønn og er et 24Mpixel bilde kun 24/4=6Megapixel fargebilde?
-
Avsluttet konto 119248
Hvorfor tror du ikke at detaljer kan leses fra alle tre fargene i en Bayer-matrise? Farger er en ting, detaljer noe annet.

Hvorfor stemmer ikke praktiske eksempler med det overforenklede regnestykket ditt?

Praktisk forsøk: Gjør et fargebilde (Bayer-matrise) om til Lab-fargemodellen, og deretter herjer du med fargekanalene (a + b) så de blir mykere. Dette påvirker i svært liten grad detaljene i bildet.
Bjørn E.
Ingen grunn til å gjøre dette med komplisert enn det er, mitt spørsmål er enkelt: Når jeg tar bilder med mitt 24Megapixel kamera, betyr det at bildet består av 24Mega fargepixler, eller 24/4 Megafargepixler.

Jeg er egentlig ikke interessert i innmaten i kamera og diskusjon rundt dette, kun hva man mener når man sier at ett kamera er på 24Megapixler.

Og praktiske eksempler stemmer relativt godt med mitt overforenklede regnestykke. Når jeg tar et bilde med ett 24Mpixel kamera og viser det på en 1920*1080= 2Megapixel skjerm kan det virke som om bildet er omtrent to ganger for stort en vei og tre ganger for stort den andre veien.

Ofte, faktisk svært ofte, er en overforenklet korrekt modell bedre enn en modell basert på feil forutsetninger.
-
Avsluttet konto 119248
Du bruker alle de 24 megapikslene for å registrere bildedata! Registreringen av data er ikke en "dum" fargepiksel for fargepiksel-registrering, men temmmelig komplekse prosesse for hvordan detaljer registreres og gjengis, og for hvordan farger registreres og gjengis. Man kan simpelthen ikke se bort fra dette faktumet.

Å snakke om verdier fra enkeltpiksler i et digitalt bilde blir nonsens, siden vi er avhengige av en pikselmatrise for å få en gjengivelse som gir mening.

Når en bildebrikke har 24 megapiksler, betyr dette at det har 24 millioner lysfølsomme elementer som registrerer det latente bildet som dannes av objektivet. En piksel er en piksel, uavhengig av hvilken filtermatrise som ligger over denne.

Og disse 24 megapikslene kan enten registreres monokromt, de kan registrer piksel-for-piksel i RGB (Foveon), eller pikslene kan være dekket av en filterlmatrise, det vanligste en Bayer-matrise i RGB.

Registrering av detaljer består IKKE av en 24/4 matrise. Det består av en 24 Mp matrise.

Registrering av farger består av et antall filtere, hvor fordelingen av farger interpoleres. Dette har liten innvirkning på detaljgjengivelsen. Det gir lite mening å snakke om 24/4 piksler i en slik sammenheng, nettopp fordi bildedannnelse skjer ut fra en pikselmatrise, og ikke enkeltpiksler. Og du spør jo om det digitale bildet!

I dette tilfellet blir en forenkling så enkel at svaret 24 eller 24/4 blir riv ruskende galt. Signalbehandlingen er mye mer kompleks enn dette.
Bjørn E.
Tror kanskje du overkompliserer endel Magne. Uansett hva du sier har vi vel nå blitt enige om at det finnes en matrise med 6K * 4K brønner. Disse brønnene er dekket med et antall farge filtere i rødt, 2*grønt og blått.

Konfigurasjonen av disse fargefiltrene er litt spesiell, men konstant. Hver brønn gir fra seg et intensitetssignal som A/D omsettes til en verdi med oppløsning 14, kanskje 16, bit.

Med andre ord har vi, idet lukkeren lukker seg, en måleverdimatrise med 24M verdier, en for hver brønn, hver brønn med sin farge og hver farge med sin intensitet. Stadig er det imidlertid ikke noe mystisk med dette. Hele tiden er dette enkel A/D omsetting, enkel signalforsterkning og matrisealgebra.

Fra denne matrisen og ut er arbeidet enkel manipulering av sett med matriseverdier for å lage det vi kjenner som et RAW bilde og videre et JPG bilde. Disse bildene er faktisk sammensatt av fire pixler pr. farge pixler.

Selvfølgelig er det endel aritmetikk for å ta hensyn til lyslekkasjer fra pixel til pixel etc. Men alt dette er konstante og relativt enkel prosesser.

I det vesentlige er det fire brønner pr. farge punkt. Holder for meg.
-
Avsluttet konto 119248
Nei, bildene er IKKE satt sammen av fire piksler per fargepiksel. Det er her du bommer grovt. Hver enkel av de 24 Mp piksene gis sin fargeverdi! Og hver enkel piksel er med på å definere detaljer og oppløsning.

Hadde det vært slik som du beskriver, ville vi hatt blokker med 4 piksler, som hver hadde samme fargeverdi. Eller et 24 Mp kamera vile gitt 6 Mp store filer, hvor hver enkel piksel fikk sin farge. Slik er det ikke. Og farger beregnes neppe ut fra matriser på fire piksler, det er nok større matriser som brukes til å håndtere fargedata. Husk også at farger i seg selv har svært lite med detaljer og detaljoppløsning å gjøre!

Det er heller ikke noe problem med at lys "flyter over" mellom pikslene. Og får du mer enn 13 bit dybde ut av hver piksel, er du god. At de lagres som 14 eller 16 bit, er noe annet,

Råfiler er forøvrig ikke "autentisk lys" eller en "sann" avbildning, det er filtrerte, behandlede og kvantifiserte data, ut fra kompleks signalhåndtering, hvor signalene fra "røde piksler" eller "blå" eller "grønne piksler" er mye mer enn bare fargedata! Tar du ikke dette med i betraktningen, får du feil svar på spørsmålene om det digitale bildet - om dataene i råfila.

Men du kan gjerne leve i trua på at det er slik som du beskriver, for min del.

PS! Ser at du har forenklet navnet mitt også! ;-)






Bjørn E.
Tror vi avslutter her. Jeg sier ikke at et gitt fargepixel er satt sammen av fire pixler,

"Konfigurasjonen av disse fargefiltrene er litt spesiell, men konstant. Hver brønn gir fra seg et intensitetssignal som A/D omsettes til en verdi med oppløsning 14, kanskje 16, bit." er det jeg sier.

Sagt med andre ord Hver enkel av de 24 Mp piksene gis sin fargeverdi! Og hver enkel piksel er med på å definere detaljer og oppløsning. "

Jeg ser at du bruker andre ord, men jeg ser ikke at du har en annen mening?

"Det er heller ikke noe problem med at lys "flyter over" mellom pikslene. Og får du mer enn 13 bit dybde ut av hver piksel, er du god. At de lagres som 14 eller 16 bit, er noe annet," Vel, sist jeg sjekket dette var intensitetsoverføring fra en brønn til en annen et problem og i det minste i følge Nikon har A/D omsetterene en 14 bits reell oppløsning.



"Råfiler er forøvrig ikke "autentisk lys" eller en "sann" avbildning, det er filtrerte, behandlede og kvantifiserte data, ut fra kompleks signalhåndtering, hvor signalene fra "røde piksler" eller "blå" eller "grønne piksler" er mye mer enn bare fargedata! Tar du ikke dette med i betraktningen, får du feil svar på spørsmålene om det digitale bildet - om dataene i råfila. " Signalbehandlingen er ikke kompleks, den er ganske enkel og arbeider med tidsinvariante og enkle matriser. Signaler fra de enkelte brønnene er selvfølgelig signaler fra den enkelte brønn, men som jeg sier, de er noe behandlet. Hva skulle det ellers være?

Ellers er alt ok her!


-
Avsluttet konto 119248
Bare en liten siste notis, siden du avslutter her. At Nikon lagrer dataene som 14 bit, betyr ikke at tonedybden for sensoren er 14 bit. Det betyr at fila har bitdybde nok til å ivareta hele toneomfanget. For mange kameraer ville 12 bit vært nok.

Ditt innledense spørsmål var:

"Betyr det at bildet egentlig vil bestå av 24Mpixler / 4 = 6Mfargepixler"

Mitt svar er altså: Nei.

Da avslutter jeg også denne diskusjonen. ;-)
Dag T.
Bjørn E skrev:
Men er min konklusjon korrekt, er en pixel en brønn og er et 24Mpixel bilde kun 24/4=6Megapixel fargebilde?


Nja, men for å ta utgangspunkt i det du sier:

Hvis et 24MP bilde BARE består av grønt har det 12MP. Hvis det BARE består av rødt eller blått kan du hevde at du egentlig bare har 6MP

I praksis er det ganskje sjelden, så om du har et bilde uten blått er vi da oppe i 18MP (rødt pluss grønt) i detaljoppløsning, men 12 pluss 6 i fargeoppløsning. Her begynner algoritmen å gjette litt så vanligvis ser du ikke særlig forskjell.

Med nyere Pentax (og Sony?) kan man teste ut forskjellen fordi de har en funksjon der kameraet tar fire bilder forskjøvet slik at du eksponerer alle punktene i alle fargene. Du ser absolutt en forbedring i oppløsningen, men ikke så mye som fire ganger.

PS: Forøvrig vil diffraksjonen gjøre at problemet blir borte når pikselavstanden er mindre enn Airy-disken (noe som ofte er tilfelle med 24MP i APS-C-format), slik at flere av pikslene kommer innenfor samme punkt.

http://thrane.name
Roar F.
Når sensoren-elementene for de ulike fargene er forskøvet i forhold til hverandre, så er det klart at det foregår en interpolering for de ulike kanalende (RGB) for å skaffe til veie noe som minner om pixels, slik vi er vant til å forholde oss til dem, dvs. som kompositt-objekter definert innenfor samme areal.

Jeg antar at RAW-formatet inneholder dataene fra alle de individuelle sensorelementene på bildebrikken, og at RAW-fremkallere utfører nettopp den interpoleringen som resulterer i definerte pixels med fast utstrekning?

Hvis man kun opererer med en type sensorelement (monokrom), så kan man ventelig oppnå høyere detaljgengivelse med samme sensor-areal, da det ikke blir nødvendig med interpolering.

Muligens kunne man oppnå bedre detaljhivå ved direkte-framkalling av RGB RAW til B/W, enn via normaliserte RGB-pixels (interpolering). Er det noen som kjenner slikt som dette?

Oops, skulle være svar på topp-innlegget ... :-)
-
Avsluttet konto 119248
Antall elementer som registrerer lys på sensoren, kalt piksler, er gitt ved sensorens oppløsning. Hver av disse registrerer tonenivå og farge for det aktuelle området i motivet. 24 millioner registreringer for en 24 Mp sensor.

I den digitale beskrivelsen av bildet har hver piksel bare én verdi, og ingen utstrekning. Det digitale er en tallmessig beskrivelse, med binært tallsystem.

Bildene framkommer ved at digitale verdier "oversettes" til toner og farger, og gjengis analogt på skjerm. Skal bildet gjengis på papir, "omsettes" bildedataene til et rastermønster med primærfargene cmy (og eventuelt noen tilleggsfarger for mykere graderinger og/eller større nyanserikdom), med svart i tillegg for å gi god dybde til de mørkeste tonene i bildene.

Når det gjelder filtreringen hos Sony A7rIII og Pentax K1, forskyves Bayer-matrisen slik at vi får R+G+G+B-filtrering for hver enkel piksel. Altså tilvarende god, gammel 3-pass skanning, med monokrom sensor med den forskjell at grønn registreres to ganger, eller 4-pass med astro-kameraer (Luminance i tillegg til RGB). Disse filene danner til sammen det ferdige bildet. Hos Sony/Pentax gir dette noe bedre detaljoppløsning og renere farger. Økningen i oppløsning skyldes dels at Bayer-matrisen "overstyres", dels at fire filer stables og bildedatene summeres slik at også støy utjevnes.
-
Avsluttet konto 119248
Hvis bildene består av identiske grønntoner, eller identiske rødtoner, kan du kanskje tenke slik. Men hva med nyanser av rødt, nyanser av grønt ... eksisterer ikke disse i bildene? Og er ikke nyanser med på å definere detaljer?

Jeg stemmer for å regne med alle bildedataene, for å si det slik. :-)
Bjørn E.
Hei Magnar!

Nå ser jeg en åpning for at vi har misforstått hverandre. Jeg skal forsøke å forklare hvordan jeg har oppfattet dette.

1) En sensor på 6000 @ 4000 brønner integrerer opp antall fotoner som treffer den enkelte brønn i løpet av lukkertiden.

2) Dette gir 6000*4000 verdier som måles og A/D omsettes og fyller opp et array eller en matrise på 6000*4000 seller

3) Er f.eks. A/D omsetteren på 16bit gir dette 6000*4000 seller som hver og en har verdier varierende fra 0 til 65534.

4) Hver enkelt selle i matrisen tilsvarer den samme posisjonen på sensoren og er merket med Rød, Grønn eller Blå.

5) Som sagt over, dersom sellene belyses med blått lys med identisk eller varierende intensitet vil kun de sellene i matrisen som er dekket med blått filer avgi en verdi, henholdsvis den samme verdien eller varierende tallverdier mellom 0 og 65534. De andre sellene vil ikke motta noe lys fordi filtrene blokkerer, I dette tilfelle vil faktisk sensor oppløsningen være 1 * 6000. Og vi benytter selvfølgelig alle brønnene, men 3/4 av brønnene ligger i mørke bak sitt filter.

6) Dersom vi fotograferer et reelt motiv, med mange forskjellige farger, vil alle brønnene motta integrere opp lys med varierende intensitet og legges over i en matrise på samme måte. Nå vil imidlertid alle sellene i matrisen inneholde verdier fra 0 - 65534 og den enkelte selle vil stadig representere den fargen som er gitt av brønnens fargefilter.

7) Så kommer mitt egentlige spørsmål. Siden vi vet at det skal signaler fra 4 brønner, bak fire filtre, R, G, G, B, til for å lage et farge pixel, betyr det at realistisk sett er det kun 24Mp/4 = 6MP farge pixler i en 24 M pixler brikke?

8) Den fremgangsmåten jeg har indikert her er en rett frem ingeniørmåte å løse denne oppgaven på. Så kommer optimalisering og tilpasninger inn. Har for eksempel en dobbel grønn to A/D omsettere eller slåes de doble grønne seg sammen før A/D omsetterene. Det gir en betydelig besparelse i antall A/D omsetter og array størrelse og gir egentlig samme resultat. Andre ting som kan gjøres er datakompresjon og filtrering på matrisenivå.

Konklusjon fra min side:
Dette er det egentlig umulig å finne ut av. Min M gir rimelig konsistende størrelser på DNG filen på ca. 48Mbyte. Det tallet lar seg ikke forklare ut i fra 24Mpixler. Samme gjelder jpg filene..... Så jeg tror faktisk at vi snakker om 6Mfargepixler.

-
Avsluttet konto 119248
1
Bjørn E skrev:
Som sagt over, dersom sellene belyses med blått lys med identisk eller varierende intensitet vil kun de sellene i matrisen som er dekket med blått filer avgi en verdi, henholdsvis den samme verdien eller varierende tallverdier mellom 0 og 65534. De andre sellene vil ikke motta noe lys fordi filtrene blokkerer, I dette tilfelle vil faktisk sensor oppløsningen være 1 * 6000. Og vi benytter selvfølgelig alle brønnene, men 3/4 av brønnene ligger i mørke bak sitt filter.

Det er her jeg mener du bommer, for en celle/piksel på sensoren som er filtrert med blått vil motta mer data enn verdien "blå", selv om rødt til en stor grad vil være blokkert. Likeså for hver av de andre filtrerte cellene. Det vil altså være data som brukes både til å beskrive tonenivå, og data som kan sammenholdes med andre piksler i en større matrise for å sannsynliggjøre farger i avbildningen.

Man kan ikke beskrive digital avbildning uten å ta hensyn til hvordan dataene håndteres, og de håndteres ikke som rene rød, grønn eller blå data.

Bjørn E.
"Det er her jeg mener du bommer, for en celle/piksel på sensoren som er filtrert med blått vil motta mer data enn verdien "blå", selv om rødt til en stor grad vil være blokkert."

Ja, korrekt dersom filtrene ikke er ideelle, noe de sannsynligvis nesten er fordi det er relativt lett å lage slike filtre. Uansett vil en brønn som ligger bak et blått filter motta en intensitet som kan komme av følgende;

1) Direkte gjennom korrekt blått filter, dette er på en måte fasiten for hvordan det skal gjøres.
2) Via defekter i filteret, kan dette eventuelt skaleres bort? Tror neppe hver enkelt brønn på en sensor er kalibrert uavhengig av de andre brønnene...
3) Via lyslekkasjer fra nabobrønner? Kan eventuelt også kalibreres bort, men gjøres det?

Med andre ord tror jeg nesten vi må si at det lyset som som fanges opp i en brønn er tagget med den fargen filteret for brønnen har. Ser imidlertid ikke bort i fra at noe gjøres senere via matrisemanipulering, men ender vi ikke også da i min skuff nr, 7? Det er vel umulig å dele opp et pixel og si at f.eks 3/4 er samme farge som filteret, mens resten er to nabofarger?
Dag T.
Jeg synes du skal prøve en Pentax K-1 med pixel shift, og se i hvor stor grad du ser forskjell på oppløsningen. Som nevnt er den ikke fire ganger så stor bare fordi alle fargene er dekket av hvert piksel.

Ellers har Magnar rett i at filtrene ikke er perfekte. Jeg har eksperimertert litt med rødfilter på digitalkamera og et skikkelig filter skiller ut rødt lys mye mer efffektivt enn filteret på brikken. Da er det lettere å få til svart/hvitt tonene du får med svart/hvitt-film og rødfilter, men på bekostning av oppløsningen.

Ut fra det kan man si at alle pikslene måler en kombinasjon av generell lysintensitet og forekomsten av én farge.
-
Avsluttet konto 119248
Bjørn E skrev:
Via defekter i filteret, kan dette eventuelt skaleres bort? Tror neppe hver enkelt brønn på en sensor er kalibrert uavhengig av de andre brønnene...

Når vi astrofotograferer, gjør vi dette med såkalte Bias frames - jevner ut variasjoner i følsomhet mellom piksler.

Bjørn E skrev:
Via lyslekkasjer fra nabobrønner? Kan eventuelt også kalibreres bort, men gjøres det?

Neppe et problem.

Bjørn E skrev:
Med andre ord tror jeg nesten vi må si at det lyset som som fanges opp i en brønn er tagget med den fargen filteret for brønnen har. [ ... ] Det er vel umulig å dele opp et pixel og si at f.eks 3/4 er samme farge som filteret, mens resten er to nabofarger?

Men alle piksler med blått filter er ikke tagget med samme verdi for blå. De tagges med grader av blå.
Bjørn E.
bilde
Magnar W. F skrev:
Bjørn E skrev:
Via defekter i filteret, kan dette eventuelt skaleres bort? Tror neppe hver enkelt brønn på en sensor er kalibrert uavhengig av de andre brønnene...
[/QUOTE
Når vi astrofotograferer, gjør vi dette med såkalte Bias frames - jevner ut variasjoner i følsomhet melom piksler.

[QUOTE=Bjørn E;112744] Via lyslekkasjer fra nabobrønner? Kan eventuelt også kalibreres bort, men gjøres det?

Neppe et problem.

Bjørn E skrev:
Med andre ord tror jeg nesten vi må si at det lyset som som fanges opp i en brønn er tagget med den fargen filteret for brønnen har. [ ... ] Det er vel umulig å dele opp et pixel og si at f.eks 3/4 er samme farge som filteret, mens resten er to nabofarger?

Men alle piksler med blått filter er ikke tagget med samme verdi for blå. De tagges med grader av blå.


Det tviler jeg sterkt på. I det minste finner ikke Google antydning til forskjell i de forskjellige filtrene.
-
Avsluttet konto 119248
Filtrene er de samme, men mengden lys som slipper gjennom varierer fra piksel til piksel - disse verdiene kvantifiseres, og jeg trodde det var dette du mente med "tagget" til.
-
Avsluttet konto 76534
Problem er at du mixer sensor niveau og file niveau.
Riktig er punkt 1 til 4. Punkt 5 er bare mulig i en ideale verden eller laboratorium men her ville være antagelsen korrekt hvis lyset som treffer pixel i dette tilfelle har samme definert bølgelengde som filter «filtrerer».
Punkt 6 er igjen riktig.Punkt 7 er problemet fordi her må vi så på interpolering av fargeverdiene og er bare riktig på sensorniveau.
Et sensorpixel (Spixel) kan i henhold til farge ikke likestilles med en bildepixel (Ppixel). For å beskrive et Ppixel i et file trenger jeg (på Bayer sensor) 6 verdier. Dette er x og y for posisjon, 3 fargeverdiene fra rød-grønn-blå kanalene og lysstyrke. Posisjon og lysstyrke blir direkte lagret men farge blir alltid beregnet. Der finnes forskjellig interpoleringsmetoder men forenklet sagt blir manglende fargeverdiene beregnet med hjelp av omliggende pixler.
Eksempel er et rød pixel som registrer lys av en definert bølgelengde men rød lys, hva denne pixel treffer, har også et grønn og blå andel som blir alltid interpolert fra omliggende grønn og blå filtrerte pixler.
Til punkt 8 kan jeg bare sier at hver pixel har et egen a/d konverter ellers vill vi mangler oppløsning i henhold til lyssterkeforskjell på en gitt sensorareal.
Dag T.
1
Magnar W. F skrev:
Hvis bildene består av identiske grønntoner, eller identiske rødtoner, kan du kanskje tenke slik. Men hva med nyanser av rødt, nyanser av grønt ... eksisterer ikke disse i bildene? Og er ikke nyanser med på å definere detaljer?

Jeg stemmer for å regne med alle bildedataene, for å si det slik. :-)


Jo, nettopp. Nyanser av rødt osv vil nødvendigvis inneholde litt av andre farger, og når to nabopiksler viser kraftig rød og en smule blått er det naturlig å anta at begge inneholder en blanding av begge, mer eller mindre gradert i forhold til ytterligere nabopiksler. Så på grunn av slik antagelser, er algoritmene lure nok til å gjøre de bergningene.

Og som sagt, når du tar utgangspunkt i en 24MP-brikke og et nedblendet objektiv er punktene i bildet såpass overlappende at du neste kan regne pikslene som plassert på samme sted.


http://thrane.name
Bjørn E.
Der forsøker av alle krefter å argumenter mot min forslag, kom heller med alternative forslag, som for eksempel å svare på:

HVOR MANGE FARGEPIXLER BESTÅR ET BILDE TATT MED EN 24MP SENSOR AV!
-
Avsluttet konto 119248
1
Jeg har gjentatte ganger svart at fargene i bildet IKKE samsvarer med antall R+G+G+B-fargefiltere i Bayer-matrisen (eller hvilken matrise som nå brukes), kort og godt fordi bildene er et resultat av en kvantifiserings- og filtreringsprosess med utgangspunkt i dataene fra sensoren - råfilen er et resultat av slik databehandling - fargene i bildet framkommer gjennom beregninger gjort fra ALLE pikslene. Og motivet avgjør helt og holdent hvor mange piksler med lik fargeverdi et bilde skal inneholde!

Hver piksel i bildefilen er ikke rød, grønn eller blå, men har en toneverdi som er hentet fra bitdybden av både R, G og B! I et 8-bits bilde er altså tonevedien for hver piksel EN gitt verdi mellom 0 og 255 for rød, EN verdi mellom 0 og 255 for grønn, og EN verdi mellom 0 og 255 for blå. Et 24 Mp fargebilde består av 24 000 000 piksler, hver og en med sin RGB-fargeverdi.

Vi kan altså ikke se bort fra signalbehandlingen, fordi det er denne som gir både råfila og det endelige bildet.

Litt avansert humor:
Tillegg for den som vil gruble videre: Hvor mange røde, grønne og blå piksler består en utskrift av et bilde av?

Til ytterligere forvirring: Vi bruker til og med RGB som utgangspunkt for utskrift av svarthvitt-bilder.
;-)
Geir B.
Hvis et 24MP-bilde BARE består av grønt har det fremdeles 24Mp ... det kan det da vel ikke herske noen tvil om - antall piksler er IKKE koblet opp mot hvilke(n) farge(r) motivet har ... :-)
Bjørn E.
Du må nok lese litt nærmere i tråden Geir. Vi er veldig klar over at en 24MP sensor antagelig har 24Mp. Dersom du hadde sett innlegget over ditt hadde du sett at spørsmålet er HVOR MANGE FARGEPIXLER BESTÅR ET BILDE TATT MED EN 24MP SENSOR AV! Det er nemlig en merkelig enighet i litteraturen at det skal fire punkter til for å lage en tilfeldig, eller hvilken som helst farge, nemlig RGGB. Derfor mitt spørsmål.
-
Avsluttet konto 76534
Hvis du leser min siste innlegg ser du at du mixer 2 forskjellig ting. Enkelste interpolerings metode for å beskrive et farge pixel er 3 pixler som beskriver 3 pixler (3x3). Avhengig av produsenter kan også benyttes 4x4 opp til 6x6 før datamengde blir for stor.
-
Avsluttet konto 119248
Ah, du snakker utelukkende om filtermatrisen på bildebrikken, og ikke det digitale bildet som lagres ... at farger "skvetter" litt over har ingen betydning for vår oppfatning av farger i et bilde. Dette forteller bl.a. persepsjonspsykologien og gestalter oss mye om. Detaljer, detaljoppløsning og opplevd "skarpet og klarhet" er et annet kapittel når det gjelder (digitale) bilder.

Kanskje hadde det gjort seg med en presisering av hva du søker svar på.
Bjørn E.
Det spørsmålet har jeg nå stilt et antall ganger:

Jeg har et kamera med 6000*4000 brønner. Det gir ca. 24MPixler. De sier at det skal 3 eller 4 brønner til for å lage ett fargepixel. Betyr det at min 24Mpixel brikke ender opp som 6 eller 8Mpixler fargepixler? En fargepixel er altså en pixel eller et punkt som kan være en hvilken som helst farge.
-
Avsluttet konto 119248
1
Se mitt svar til deg tre-fire hakk oppover i dennne tråden!

Hurtigsvar: En 24 Mp sensor med filtermatrise gir bilder med 24 millioner fargepiksler!
-
Avsluttet konto 76534
Jeg har svart mange ganger men du hører ikke hva jeg sier ;-))))
-
Avsluttet konto 119248
2
Det er nok her det skjærer seg: Bjørn Engebretsen spør: "De sier at det skal 3 eller 4 brønner til for å lage ett fargepixel"

Premissen svikter, trådstarter tar ikke høyde for at hver enkel pikslel "låner" data fra omliggende piksler for å sannsynliggjøre en fargeverdi som oppfattes som realistisk, vurdert ut fra motivet og ønsket gjengivelse.
Bjørn E.
Ok, endelig sier du noe fornuftig og lesbart. Det du beskriver er rett og slett en upsampling. Det kan jeg akseptere og det betyr rett og slett at man egentlig kan lage så mange fargepixler man har prosessorkraft til.

Det forklarer også hvorfor to kameraprodusenter med samme brikke kan gi forskjellig inntrykk, sjekk the maths...
-
Avsluttet konto 119248
1
Nei, det er IKKE snakk om en oppsampling, det er snakk om å beregne fargeverdier for hver enkel piksel, ut fra omliggende piksler - for hver og en piksel i bildet. Det tilføres ingen nye piksler i denne prosessen, og det fjernes heller ingen piksler!

Jeg minner - nok en gang - om at det ikke bare er fargeverdiene som utgjør bildedataene. Har du forresten noensine sett et bilde fra en RGB-fil med Bayer-matrise før demosaikk-prosessen? Da får du et svarthvitt-bilde, fullt av detaljer. Fargene beregnes "oppå" dette.

Digital bildeframstilling består av registrering av lysintensitet og farge, kvantifisering av disse dataene, og deretter svært gjennomtenkt databehandling. Det er i databehandlingen resultatene ligger, og dette er ikke en "ren" utlesing fra bildebrikken. Ubehandlede råfiler finnes ikke!

Bjørn E.
"det er snakk om å beregne fargeverdier for hver enkel piksel, ut fra omliggende piksler - for hver og en piksel i bildet. Det tilføres ingen nye piksler i denne prosessen, og det fjernes heller ingen piksler" Men Magnar, du er nødt til å innføre eller tweeke noen pixler, egentlig alle, fordi den enkelte brønn kun måler en farge. Men det du beskriver er helt ok, enkel matrisearitmetikk. Men jeg begynner å bli usikker på om prosessorene i disse kameraene greier en slik operasjon på så store matriser? Å invertere en matrise med 24millioner elementer tar tid.....
-
Avsluttet konto 119248
Nettopp. Det er betydelig datakraft i moderne kameraer.
-
Avsluttet konto 76534
1
Dette er ikke et upsampling fordi verdier og mengde er de samme hele tiden. Ser innlegg fra meg i dag 16:44
-
Avsluttet konto 76534
Hvis han definerer fargepiksel som informasjonmengde som kommer fra hvert enkelt Spixel (på ett git sensorareal) for å beregne fargeverdiene fra ett Bpixel er vi på 25-30% på en Bayer sensor. Naturligvis avhengig fra motiv.
Geir B.
2
Jeg HAR lest hele tråden ... det er derfor jeg svarer som jeg gjør ... :-)

RAW-fremkalleren bruker en kvartett bestående av RGGB (Bayermønsteret) for å definere én piksel som vises på skjermen. Det betyr at luminansinformasjonen fra hver sensor inngår i fire sensor-kvartetter som gir i alt fire fargeutlesninger som representerer fire unike piksler på skjermen.

Dette betyr at brikken må ha én ekstra rad med sensorer rundt kantene for at "regnestykket" skal gå opp ... dette er grunnen for at en 24Mp-brikke totalt har litt flere enn 24M-sensorer.

Men selv et bilde kun med røde toner består av 24M unike piksler på skjermen ... og har følgelig samme oppløsning som et fargerikt bilde.
-
Avsluttet konto 119248
-
Avsluttet konto 76534
Liten ironisk anmerkning
Oppløsning er teknisk set falsk.
Bjørn E.
Der tror jeg faktisk at du traff spikern på hodet Thomas!
Bjørn E.
Men Geir, dersom en pixel som vises som farge på skjermen må ha RGGB, fire stk. brønner, så blir den reelle fargeoppløsning 24/4=6 Pixler.... Og selv et bilde som består av bare rødt vil ha 6 Megapixler oppløsning, men 18Mpixler til vil være sorte,,,,
-
Avsluttet konto 119248
2
Det digitale bildet er IKKE en direkte overføring av Bayer-filtreringen. Hvorfor tror du at det skulle være det? Og hvordan kunne du da få andre farger enn rød, grønn og blå? Hva mener du forresten med "fargeoppløsning"?
Bjørn E.
Hva mener du med direkte?

Tror kanskje det er mulig å få til alle mulige farger med rød grønn og blå, i forskjellige intensiteter i en additiv prosess. Særlig når man sper på med intensitet i de forskjellige RGB kanalene. I det minste var det det den gang jeg holdt på med fargemørkerom, selvom det var YMC.

Men nå gidder jeg ikke mer av dette vrøvlet. Jeg har fått mine svar, og håper dere andre også har blitt litt klokere!
Dag T.
1
Da benytter jeg nok en gang anledningen til å be deg sammenligne bilder med og uten sampling av alle fargene i hvert piksel. Du kan få prøve et sånnt kamera av meg om du bor i Oslo-området.
Geir B.
Hva mener du med "bilder med og uten sampling av alle fargene i hvert piksel" ... ?

Hvordan tenker du at "bilder med og uten sampling av alle fargene i hvert piksel" kan sammenlignes ?
Dag T.
1
Veldig enkelt: Sett Pentax K-1 (for eksempel) på stativ overfor et stillstående motiv og ta bilde med og uten Pixel shift. Du får to identiske bilder, bortsett fra at det ene er frembragt ved hjelp av Bayer interpolasjon og det andre består av en firedobbel eksponering der brikken er flyttet mellom hver eksponering slik at alle punktene i bildet blir samplet med alle de tre fargene.(grønt to ganger).

Det finnes flere sammenligninger på nettet og selv om bildene med pixelshift har høyere synlig oppløsning enn vanlige er ikke forskjellen på langt nær så stor som Bjørns teori ville tilsi.

Her er en av mange omtaler:
http://www.digitalrev.com/article/is-pentax-pixel-shift-t...y-any-good
Geir B.
... eller forskjellen på en 10Mp-brikke og en 40 Mp-brikke ... sistnevnte er i realiteten en firedobbel eksponering av førstnevnte, men uten at brikken flyttes. Det er altså ikke nødvendigvis teknikken med "pixel shift" (per se) som begrunner forskjellen.

Sagt på en annen måte: Når teknikken man bruker har en finere maskestørrelse får man selvsagt et finere (bedre) resultat.

Men: Når du sier "alle punktene i bildet blir samplet med alle de tre fargene" så kan regnestykket over reduseres til "tredobbel eksponering" fordi samme punkt eksponeres med grønn to ganger. Dermed er det som forskjellen mellom 12Mp og 36 Mp.

Men også Bayer prosessen sammenstiller informasjon fra fire og fire nabosensorer slik at alle sensorene inngår i bildeprosesseringen fire ganger, noe som kan beskrives som virtuell pixel shift.

Dessuten: Å flytte brikken tilsvarende bredden av en halv pixel gjør at man er nede på "airy disk"-nivå. Følgelig vil jeg tro at pixelshift-prosessen - i beste fall, og forutsatt ingen mikrobevegelse av hverken kamera eller motiv - tilsvarer en forbedring på ... la oss gjette ... 30% ... altså som å går fra ca. 30Mp til ca. 40Mp.

PS
Jeg oppfatter ikke at Bjørn har noen teori, kun en påstand basert på en manglende forståelse av Bayerprinsippet.


Dag T.
Geir B skrev:
... eller forskjellen på en 10Mp-brikke og en 40 Mp-brikke ... sistnevnte er i realiteten en firedobbel eksponering av førstnevnte, men uten at brikken flyttes. Det er altså ikke nødvendigvis teknikken med "pixel shift" (per se) som begrunner forskjellen.

Sagt på en annen måte: Når teknikken man bruker har en finere maskestørrelse får man selvsagt et finere (bedre) resultat.

Men: Når du sier "alle punktene i bildet blir samplet med alle de tre fargene" så kan regnestykket over reduseres til "tredobbel eksponering" fordi samme punkt eksponeres med grønn to ganger. Dermed er det som forskjellen mellom 12Mp og 36 Mp.

Men også Bayer prosessen sammenstiller informasjon fra fire og fire nabosensorer slik at alle sensorene inngår i bildeprosesseringen fire ganger, noe som kan beskrives som virtuell pixel shift.

Dessuten: Å flytte brikken tilsvarende bredden av en halv pixel gjør at man er nede på "airy disk"-nivå. Følgelig vil jeg tro at pixelshift-prosessen - i beste fall, og forutsatt ingen mikrobevegelse av hverken kamera eller motiv - tilsvarer en forbedring på ... la oss gjette ... 30% ... altså som å går fra ca. 30Mp til ca. 40Mp.

PS
Jeg oppfatter ikke at Bjørn har noen teori, kun en påstand basert på en manglende forståelse av Bayerprinsippet.


For å sammenligne to ting må man sørge for ellers like vilkår. Altså samme brikke, samme objektiv, samme motiv og samme objektiv. Ellers har man ikke kontroll på opphavet til de forskjellene man ser.

Det nærmeste man kommer i praksis er samme kamera og objektiv med og uten pixelshift.

Ellers flyttes sensoren med en pikselavstand, og som du vil se har jeg nevnt diffraksjonen andre steder i tråden.
Geir B.
Det er jo nettopp den forutsetningen jeg legger til grunn !!!

Pixelshift betinger vel ... eh ... "samme brikke, samme objektiv, samme motiv og samme objektiv" vil jeg tro - det er i hvert fall det jeg baserer min gjetning om 30% på ... :-)

Men:

Det går (også) utmerket godt an å sammenligne to ting som er ulike eller har ulike vilkår. Det kan faktisk være vel så viktig, vel så nyttig og vel så avklarende å sammenligne ulikheter som likheter .

et er vel nettopp derfor man for bruk av Pixelshift sier noe a la "det er som å går fra et kamera med 30Mp til et med 40Mp" ... man sammenligner rett og slett Pixelshift-resultatet med et oppløsningen i et kamera som ikke har Pixelshift !

Geir B.
Prøv Sigma med Foveon-sensor. Detaljrikdommen er forbløffende.

MVH

Geir
Dag T.
Har ikke prøvd selv, men kjenner minst én entusiastisk eier. Ulempen skal være støy ved høyere ISO.
Geir B.
Selv er jeg dessverre bare en tidligere eier, for jeg la det fra meg ved en fjell-café, og da jeg kom tilbake var det forsvunnet. Som du sier, ikke noe kamera for høy ISO.
Hvis man kan leve med begrensningene gir disse kameraene virkelig detaljerte bilder.

MVH

Geir
Dag T.
Huffda :-(

Han jeg kjenner som har hatt det brukte det særlig i studio, der du har nok lys men behov for bra fargegjengivelse.

Jeg mener også å ha lest, men finner ikke igjen linken, at den spektrale følsomhetskurven til foveon-sensoren ligger nærmere øyets enn en typisk CMOS.
Geir B.
Ja, det er meget mulig at foveon ligger nærmere menneskets øye. I hvert fall får man flotte portretter med Foveon. Men, som du sier, man trenger godt med lys. Så enten dagslys eller studio med flash.

MVH

Geir
Tor H.
Har et slikt liggende. Det er sant som du sier om detaljrikdommen. Eller var ihvertfall. Vi snakker om en Sigma på et tidlig stadium.
Veldig sært kamera, bra resultater om man brukte raw filer.....
Alt må korrigeres for å få bra resultat. JPG filene var forferdelige. Forferdelig mye støy om man økte ISOen bare litt.
Den gangen var den øvrige utstyrsparken mer beskjeden og resultatene fra Sigmaen skinte mer da en nå i mot resten.
Det utfordrer litt å bruke det og det er vel det som trekker når jeg en sjelden gang tar det frem.
Fastoptikk og ellers kjempesært.
-
Avsluttet konto 119248
2
Hvorfor i all verden skal jeg svare deg når du beskriver det som vrøvl?
Geir B.
Bayerbrikken lagrer ikke fargeinformasjon, kun informasjon om luminans for hver sensor.

Heller ikke JPG-filen inneholderper se fargeinformasjon, men luminans for tre kanaler (RGB) for hver piksel.

Det betyr at man må ha programvare som kan tolke og kombinere informasjonen og vise den som analoge farger på skjermen.

Man kan faktisk si at RAW digitalteknisk er enklere enn JPG, men informasjonen må håndteres på en annen måte og etter andre parametre.


-
Avsluttet konto 119248
Det er det jeg har sagt om fargeinformasjon.
Geir B.
Syntes bare det var en naturlig oppsummering i denne sammenhengen fordi det kan synes som om noen mener at JPG-filen er mer "billedlig" og står nærmere fotografiet enn RAW-filen ... :-)
Audun S.
En kan vel si det sånn at JPG er ferdig tolket og RAW er et bredt grunnlag for tolkning, selv om også det til en viss grad er tolket?
Og skal en ha en ny tolkning så er det tilbake til RAW....
Geir B.
Tenk deg en brikke med ni sensorer:

1 2 3
4 5 6
7 8 9

For å hente ut fargeinfo kombineres fire og fire sensorer:

1 2 3
.x .x
4 5 6
.x .x
7 8 9

Her representerer x-ene de fire mulige kombinasjonene.

1, 2, 4 og 5 kombineres til A
2, 3, 5 og 6 kombineres til B
4, 5, 7 og 8 kombineres til C
5, 6, 8 og 9 kombineres til D.

Dette danner et bilde bestående av fire piksler som ser slik ut:

AB
CD

For en 24Mp-brikke er det bare å skalere opp modellen min :-)
Geir B.
Dette er nok i grove trekk hvordan demosaicing fungerer.
Hvorfor kaller du resultatet for .x først og så A, B, C og D?

I praksis er det nok litt mer finurlig enn ditt eksempel. Pluss at ditt eksempel reduserer 9 pixler til 4 pixler.

Et mer realistisk eksempel ville vært å ende opp med noe sånt:

1 2 3 A B C
4 5 6 =======> D E F
7 8 9 G H I

Hver kameraprodusent har sin egen algoritme for hvordan Bayer-data konverteres til JPG. For eksempel blir områder med stor kontrast behandlet spesielt for å sørge for at skarpe kanter forblir skarpe.

Se f.eks, DPReview sin artikkel om hvordan Sony A7 R III ikke klarer å gjengi lyssvake stjerner like bra som andre sammenlignbare kameraer:
http://www.dpreview.com/news/3195011528/analysis-the-sony...star-eater

MVH

Geir
Geir B.
Jeg "kaller" ikke resultatet .x. x-en er ment å vise krysskombinasjonen ... men uten "prikken" så justeres x-en til feil posisjon her på foto.no ... derfor blir det litt merkelig ... :-)

Det er dette kryssresultatet ved å kombinere 1, 2, 4 og 5 som jeg kaller A.
Kryssresultatet ved å kombinere 2, 3, 5 og 6 kaller jeg B osv. osv.

Min superenkle model viser altså at samme sensor inngår i flere kryssresultater for å definere konkrete bildepunkter, her er det kun sensor 5 (den i midten) som deltar fire ganger. Hadde jeg laget en større matrise ville det blitt tydelig at de fleste sensorene inngår i fire kryssresultater/ bildepunkter ... unntaket er de som ligger langs ytterkant

At RAW-algoritmen kanskje kan være litt mer finurlig enn i min modell får så være >> det at de ni sensorene resulterer i fire bildepunkter er selve hovedprinsippet ved Bayer-metoden ... det kan derfor ikke kalles en "reduksjon"fra ni til fire fordi alle ni sensorene er nødvendige for å gi fire bildepunkt.

Her er en brikke med 25 sensorer:

A _B _C _D _E
F _G _H _I _J
K _L _M _N _O
P _Q _R _S _T
U _V _X _W_Z

Typisk krysskombinasjonseksempel:

B, C, G og H krysskombineres.
G, H, L og M krysskombineres.
C, D, H og I krysskombineres.
H, I, M og N krysskombineres.

Gjør man hele utregningen vil man se at både G, H, I, L, M, N, Q, R og S (de "omslyngede" i midten)inngår i fire "regnestykker" mens alle langs ytterkanten kun inngår to ganger (de i ytterhjørnene kun en gang). Her resulterer altså 25 sensorer i i alt 16 bildepunkt.

En tilsvarende interpolering og nedskalering av antall bildepunkter i forhold til sensorer skjer også i både ditt og mitt Bayer-kamera, men som prinsipp mener jeg dette er gyldig for å forklare Bayer-metoden.

Geir B.
Hei igjen,

Typografisk kontroll er ikke dottens sterke side. ;-)

Jeg tror at det fleste sensor-brikker har pixler langs ytterkantene som brukes i utregningen for å unngå artifacts langs kantene.

Her er fra en Canon-artikkel:

http://cpn.canon-europe.com/content/education/infobank/ca...sensors.do
............................................
It is this sampling that accounts for the difference between the total number of pixels on a sensor, and the smaller number of ‘effective’ pixels. The effective pixels are those that fall within the actual image area. The remaining pixels form a border to the image. They receive light from the subject and their data is sampled by the effective pixels at the edge of the image area. This means that all the effective pixels sample data from adjacent pixels in all directions. It avoids the pixels at the edge of the image area having reduced colour data.
...............................................................

Hvis vi ønsker et bilde med X ganger Y antall pixler trenger vi en sensor med X + 2 ganger Y + 2 pixler.
Da kan man bygge opp bilde med X ganger Y pixler der alle pixler er et resultat av en kombinasjon av fire pixler, også langs kantene.

I praksis er det enda flere pixler i sensoren fordi noen pixler helt i ytterkantene ikke blir belyst og brukes for å beregne mørkestrømmen.

Det kunne vært interessant å kunne lese inn en råfil og bruke denne algoritmen og se hva man får ut. Antagelig et brukbart bilde, men neppe så bra som ACR eller andre rå-konvertere.

MVH

Geir
Bjørn E.
Nå tror jeg faktisk dere har kommet frem til noe tilnærmet korrekt gutter, og at dere har greid å fremstille det på en fornuftig måte. Mye enklere er det rett og slett å si at antall fargepixler tilsvarer antall unike 4*4 undermatriser som kan etableres i Bayer matrisen.

Jo større Bayer matrise jo mer konvergerer antall 4*4 undermatriser mot antall punkter i Bayer matrisen.

Det interessante er nå hvordan den enkelte kameraprodusenten legger ut Bayer matrisen og hvordan dette bearbeides i ettertid.

Hadde vært interessant å f.eks, tatt kontakt med Nikon eller andre produsenter å fått verifisert dette. Har lastet ned spesifikasjonen på DNG filer fra Adobe for om mulig å gjøre reverse engineering ut i fra den og et entall DNG filer, men det er svært vanskelig fordi DNG filene også pussig nok varierer i størrelse. Dette fordi DNG formatet faktisk anbefaler en viss komprimering om enn lossless.

Imidlertid synes jeg vi har kommet langt! Der ER flere enn 24Mpixler/4 og alle pilene, unntatt noen randpixler brukes flere ganger. Layouten på Bayer filteret kan også variere og kåle opp litt, dessverre.
Geir B.
2
Kjekt når vi kan komme frem til enighet ... sett to ganger Geir på saken så ordner det meste seg, dobbel dose gjør alltid underverker ... :-)

Bjørn E.
Jada Geir, to gangr Geir er ganske bra, men jeg må si at jeg synes dere er veldig hyggelig og det er flott å diskutere med dere, men hadde dere forklart det slik jeg gjorde over her, med denne formuleringen:

Antall fargepixler tilsvarer antall unike 4*4 undermatriser som kan etableres i Bayer matrisen. Nærmere bestem i sensormatrisa, selvfølgelig.

Hadde vi kommet frem mye fortere!
-
Avsluttet konto 76534
Problem er bare at det finnes interpoleringsmetoder som benytter 3x3, 4x4 eller hva som helst er tilstrekkelig for å omsette et analog scene i et digitalt file. Et produsent/kamera benytter ikke bare en men flere algoritmer for å beregne et pixel.
Geir B.
3
Vel, du må ikke klage på min manglende formuleringsevne når det gjelder tekniske termer, det blir urettferdig ... - vi kom da frem til enighet til slutt, og veien er ofte like viktig (og oftest mye mer spennende) som selve målet.

Som arkitekt tenker jeg hovedsaklig i visuelle bilder og ser for meg mulige løsninger som romlige modeller ... forsøk på å verbalisere denne visuelle forståelsen ved enkel og hverdagslig "hjemme på kjøkkenbenken"-terminologi kan av og til by på problemer ... :-)
-
Avsluttet konto 76534
Som jeg har skrivet tidligere i denne tråden tenker jeg at de fleste mener at et sensorpixel direkt korrelerer med bilde pixel men detter er, enkelt sagt, falsk Jeg kopierer nå in hvorfor dette ikke stemmer fordi jeg er lei å skrive hele tiden det samme ;-)
Et pixel i et raw, TIFF, osv. file er bare et matematiske definisjon av denne photoner som treffer et pixel. Avhengig av interpretation gjennom A/D konverter, signalprocessor og de tilhørende interpoleringsfunksjoner få vi hermed anvisninger hvordan et pixel skal ser ut hvis vi dette vise på en display eller print. Avhengig hvor bra interpoleringsalgorytmer estimerer blir endelig bilde. Et eksempel for Bayersensor:
De fleste High end objektiver i dag har en oppløsning som tilsvarer omtrent 6 mikrometer kantlengde på en pixel. Dette mener at på en fullformat sensor 24Mpix, APS-C 9Mpix og MFT 5Mpix er bra nok for å få full oppløsning. Likevel få du naturligvis et bedre oppløsning med 36Mpix sensor en med 24Mpix på fullformat. Dette henger sammen med høyere samplingsfrekvens og derfor mer informasjon for interpoleringsalgorythmer.
For å beskrive et Ppixel (bilde pixel) i et file trenger jeg (på Bayer sensor) 6 verdier. Dette er x og y for posisjon, 3 fargeverdiene fra rød-grønn-blå kanalene og lysstyrke. Posisjon og lysstyrke blir direkte lagret men farge blir alltid beregnet. Der finnes forskjellig interpoleringsmetoder men forenklet sagt blir manglende fargeverdiene beregnet med hjelp av omliggende pixler.
Eksempel er et rød pixel som registrer lys av en definert bølgelengde men rød lys, hva denne pixel treffer, har også et grønn og blå andel som blir alltid interpolert fra omliggende grønn og blå filtrerte pixler.
Standard Bayer sensor har før hvert pixel et fargefilter i rød, grønn eller blå. På grunn at grønn har største andel i hvor «lysstyrke oppfatning» (72%) og at objektiver normalt har beste ytelse på grønn finner vi en fordeling av 50% grønn, 25% rød og 25% blå. Dette mener at hver pixel bare leverer informasjoner for et farge.
Sony og Kodak hadde også hvite piksler i forskjellige sensor modeller. Også hadde for eksempel Sony’s DSC-F828 2 forskjellige grøn (RGEB sensor) og Canon’s 7D hadde forskjellige grønfilter i et 2x2 pixelblock.
I tilleg finnes på mange sensorer også svart piksler for å få info om temperature noise.
Et sensor kan ser ut som
1.rad grøn rød grøn rød grøn rød ...
2.rad blå grøn blå grøn blå grøn ...
3.rad grøn rød grøn rød grøn rød ...
På grunn av denne oppdeling er det nødvendig å beregne manglende fargeinformasjon. Dette mener at for eksempel i rad 1 må 50% grøn informasjon beregnes, 100% av blå og 50% av rød. Eller bedre 50% av grøn og 75% av rød og blå må beregnes hvis vi ser på hele sensor areal.
Fordi vi kan sier at, under normale omstendigheter, 2 pixler av samme farge ved siden av hverandre ha bare liten forskjell i fargene er det mulig å interpolere manglende fargeinformasjon.
Teknisk sett har et bayer sensor derfor bare 25% oppløsning hvis vi gå ut fra en artefaktfritt bilde.
Problemet starter hvis vi ha en abrupt fargeovergang lengs et vertikalt kante. Her må
1. Demosaicing, som normalt blir gjennomført på rad, veksler fra horisontalt til vertikalt.
2. Må fargene også beregnes liketidig vertikalt fordi sensor vet ikke om kante er slut.
Benyttet blir her et såkalte kant baserende demosaikprosessen eller et grøn baserende demosaikprosses.
Fasit av dette er at, som også skrivet tidligere:
Hvis han definerer fargepiksel som informasjonmengde som kommer fra hvert enkelt Spixel (sensorpixel, på ett git sensorareal) for å beregne fargeverdiene for ett Bpixel er vi på 25-30% på en Bayer sensor. Naturligvis avhengig fra motiv.
Anbefalt lesning http://cs.dartmouth.edu/~wjarosz/courses/cs89-fa15/slides...aicing.pdf
Spesielt nå du scroll ned til Demosaicing
Geir B.
1
Burde vel strengt tatt ikke hatt lov til å gi en tommel opp på denne her, men gjør det likevel. Morsom diskusjon.

MVH

Geir
Geir B.
Sorry.
Ikke lett å sette opp ligninger her på foto.no

Jeg mente noe sånt

A B C
D E F
G H I

Tydelig at "space" blir trunkert.

MVH

Geir
Geir B.

1 2 3 .....................A B C
4 5 6 =======> ...D E F
7 8 9 .....................G H I
Dag T.
Geir B skrev:
Hvis et 24MP-bilde BARE består av grønt har det fremdeles 24Mp ... det kan det da vel ikke herske noen tvil om - antall piksler er IKKE koblet opp mot hvilke(n) farge(r) motivet har ... :-)


Hvis du leser de andre innleggene mine ser du at jeg tar høyde for at filterne ikke er perfekte, og derfor slipper inn generelt lysnivå i tillegg til farger. Jeg tolker imidlertid Bjørn slik at han forutsetter perfekte filtre (uten interpolasjon), og hvis det var tilfelle ville ikke røde piksler kunne måle grønt lys. Da ville en 24MP brikke gi 12MP oppløsning for grønt lys, men interpolert ville kameraet gi 24MP oppløsning. Selv om den er litt under den reelle oppløsningen.


http://thrane.name
Geir B.
Enig - alle fargefiltrene slipper gjennom litt av det bredspektrede lyset.

Ingen motiver består av kun en farge som er helt nøyaktig sammenfallende med et av fargefiltrene - det vil i så fall gi en ensfarget flate uten nyanser og detaljer.

Alle motiv - også monokrome - har nyanser som krever at luminansinfor fra alle de tre fargene må kombineres for å gi en troverdig gjengivelse..
#5
#5
-
Avsluttet konto 76534
Anbefalte lesning for alle som er intressiert
http://cs.dartmouth.edu/~wjarosz/courses/cs89-fa15/slides...aicing.pdf

Hilsen
Thomas
Åpne uskalert versjon i eget vindu