Na co wpływa zmiana rozmiaru zdjęcia w aparacie?

Dostałem pytanie:
“Witam, mam pytanie, na które do tej pory nie mogłem znaleźć odpowiedzi. Otóż czy mając aparat z matrycą np. 10mPix i ustawiając rozmiar zdjęcia na rozdzielczość mniejszą niż te 10 mPix np. do wartości 6 mPix, to czy ma to wpływ na sposób naświetlania matrycy, czy tylko na wykorzystanie mPix na matrycy tzn. wykorzystywane są w mniejszej ilości. Ogólnie czym to skutkuje?
Pozdrawiam Grzegorz”


Różne możliwe kombinacje wyboru zapisu zdjęć dla aparatu Canon EOS 50D

W zasadzie każdy cyfrowy aparat fotograficzny daje możliwość zmiany rozmiaru rejestrowanego obrazu. Można zmieniać liczbę zapisywanych do pliku pikseli jak również stopień kompresji plików jpg. W lustrzankach można też decydować, czy zdjęcie ma być zapisane w formacie jpg i/lub RAW.


Rozmiar zdjęcia ustawiany w menu aparatu określa liczbę zdjęć która zmieści się na karcie pamięci. Tutaj 290 zdjęć. Karta 8GB.

Zmiana rozmiaru, czy też formatu zapisu nie wpływa w żaden sposób na naświetlenie matrycy. Parametry ekspozycji są niezależne od rozmiaru i formatu pliku zapisywanego na karcie. Chociaż kojarzy mi się jakiś aparat, w którym przy ograniczeniu rozmiaru zapisywanych pikseli możliwe było wykonywanie zdjęć przy wyższej czułości ISO.

Generalnie zmiana rozmiaru na mniejszy ma jeden główny skutek. Plik zapisany na karcie pamięci jest mniejszy i dzięki temu zmieści się na niej więcej zdjęć. Drugim efektem jest mniejsze wykorzystanie bufora pamięci w aparacie, co skutkuje możliwością zrobienia większej ilości zdjęć na raz przy zdjęciach seryjnych.

Przykładowo w aparacie Canon EOS 50D przy najwyższej jakości zapisu pliku i pełnej rozdzielczości 15 megapikseli, pliki RAW + jpg dla jednego zdjęcia zajmą około 25MB. Przy takim ustawieniu w serii można zrobić maksymalnie 10 zdjęć. Rezygnując z plików RAW i zapisując zdjęcia tylko jako jpg z minimalną kompresją przy rozdzielczości 8 megapikseli plik na karcie zajmie już tylko około 3MB, a w serii będzie można zrobić za jednym razem ponad 100 zdjęć.

Oczywiście zmniejszając rozmiar pliku ograniczamy ilość informacji jaką on zawiera, a co za tym idzie jakość zdjęcia wynikowego. Wszystko zależy od tego jakiego rodzaju zdjęcia robisz i czego oczekujesz. Jeśli będziesz robił duże powiększenia, to musisz wykorzystać całą rozdzielczość matrycy. Jeśli będą to zdjęcia do Internetu lub odbitki w formacie pocztówkowym to już 3 megapiksele w zupełności wystarczą. Jeśli fotografujesz sport i dynamiczne sceny, to na pewno przyda się tryb seryjny i musisz wtedy zadecydować ile potrzebujesz mieć zdjęć w serii.

Ten artykuł znaleziono w wyszukiwarce Google m.in. poprzez frazy:
  • zmniejszenie matrycy lepsze zdjecia
  • zmniejszenie rozdzielczości zdjęc w lustrzance Sony A58

14 myśli nt. „Na co wpływa zmiana rozmiaru zdjęcia w aparacie?”

  1. Panie Przemku,

    a jak to się ma do szumów? W internecie jest pełno opinii, ze mała matryca (1/2,3 – 1/2,5”) i dużo Mpix = duze szumy na zdjęciu.

    Czy po zmniejszeniu rozmiaru w aparacie szumy się zmniejszają?

  2. @Lixen. Generalnie tak jest, że im większe upakowanie czujników na określonej powierzchni tym większe szumy. Oczywiście ważna jest tu technologia, ale liczy się tu też rozmiar fizyczny czujnika, który przekłada się na stosunek siły odbieranego z niego sygnału do szumu. Dlatego zmniejszenie rozmiaru zdjęcia w aparacie nic nie wnosi. Upakowanie receptorów nadal jest takie samo. Co najwyżej jeśli zmniejszysz rozmiar w aparacie i takie zdjęcie powiększysz na ekranie to będziesz miał je upraszczając gorszej jakości.
    Ps. Sorki za tak późną odpowiedź, ale jakoś przeoczyłem Twoje pytanie.

  3. @Przemk, dzieki tak myslałem, co prawda już pozbyłem się swojego fuji s 1500 i nabyłem s6500fd ale ta informacja przyda się pewnie nie tylko mi 🙂

  4. Przemku. Moje pytania:
    1)czy kompresja JPEG dotyczy tylko chrominacji (kolorów), czy także wielkości obrazu (rozdzielczości)?
    2) jeśli dotyczy także rozdzielczości, to w jaki sposób ta kompresja przebiega? Czy usuwane są niektóre piksele, czy są łączone w większe?
    3)czy kompresja chrominacji (kolorów) polega tylko na zmniejszeniu głębi kolorów do 8 bitów, jeśli matryca aparatu zapewnia większą głębię, czy także na zmniejszeniu głębi nawet poniżej 8 bitów? Jeśli tak, to do ilu bitów?

    Proszę o wyrozumiałość, jeśli pytanie 2 jest “prostacke”.

  5. @Józef. Kompresja w plikach JPG w uproszczeniu polega na grupowaniu podobnych do siebie pod względem barwy sąsiednich pikseli i zapisaniu w pliku informacji o tym. Zatem zamiast danych na temat poszczególnych pikseli jest zapisywana informacja o grupie. Tak więc jeśli mamy do czynienia z gładką powierzchnią np. czyste niebo to taki plik będzie mniej ważył w bajtach niż zdjęcie siatki drucianej o skomplikowanym wzorze. Możesz natomiast sterować siłą tej kompresji, czyli jak bardzo sąsiednie piksele maja być podobne by były pogrupowane. Kompresja nie wpływa na fizyczny rozmiar zdjęcia w pikselach. Wielkość obrazu w pikselach pozostaje taka sama. Jeśli plik źródłowy był wykonany/zapisany w większej niż 8 bitów skali kolorów to przy zapisie JPG zostanie ona zmniejszona do 8 bitów.

  6. Dzięki Przemku.
    Mam jeszcze takie pytania:
    Przy świadomym zmniejszeniu rozmiaru, np. z 5 Mpx do 2 Mpx następuje, według określonego algorytmu, redukcja części pikseli.
    1. Co dzieje się z odrzuconymi pikselami? Czy one biorą udział w tworzeniu obrazu, ale z wartością zerową?
    2.Czy one w ogóle nie biorą udziału w tworzeniu obrazu?
    3.A jeśli w ogóle są pomijane i nie biorą udziału w tworzeniu obrazu, nawet z wartością zerową, to czy wybrane piksele aktywne są ścieśniane, czy w dalszym ciągu są “na swoim miejscu”, ale między nimi jest pustka lub są piksele odrzucone, ale z wartościa zerową?

  7. @Józef. Dokładnego algorytmu nie znam, ale to odbywa się mniej więcej tak, że w systemie bezstratnym jest podane że np. pierwszy piksel ma taką i taką wartość jasności składowych RGB, drugi piksel ma kolejną wartość RGB, kolejny piksel kolejną wartość RGB. I tak dla każdego piksela. W systemie stratnym JPG w uproszczeniu jest tak, że jeśli sąsiednie piksele mają podobną barwę to ta barwa jest z nich uśredniana zapisywana jest informacje np. że piksel od 1 do 24 mają daną wartość RGB, kolejne od 25 do 36 następną wartość RGB. Tak więc zamiast zapisywać dane RGB dla poszczególnych pikseli są zapisywane dla grup. Zajmuje to mniej miejsca. Później program do wyświetlania obrazu zapisanego w JPG odtwarza obraz z zapisanego w ten sposób pliku. Nie ma tu żadnych wartości “zerowych”, odrzucanych pikseli, ścieśnianych, pustych pikseli. Zamiast informacji o poszczególnych pikselach jest informacja o średniej jasności RGB dla grup pikseli. Informacja o jasności RGB dla poszczególnych pikseli jest tracona dlatego ta metoda nazywa się metodą stratną.

  8. Przemku.
    Chyba się nie zrozumieliśmy. Mnie nie chodzi o kompresję JPG, która jest dokonywana zawsze w wielkości zależnej od fotografującego (mała, średnia, duża). Taka kompresja (stratna) jest cechą JPG. Kompresja taka jest dokonywana niezależnie od rozmiaru zdjęcia i służy tylko do zmniejszenia zapisu wyświetlanego obrazu, co słusznie zauważyłeś, aby zapis zajmował mniej miejsca na nośniku. Wykonując zdjęcie w rozmiarze, np. 5 Mpx, JPG dokona kompresji barw, ale zdjęcie będzie miało w dalszym ciągu rozmiar 5 Mpx. Jeśli celowo zmniejszymy rozmiar kolejnego zdjęcia, jakie chcemy zrobić, czyli np. 2 Mpx, JPG dokona także kompresji stratnej barw, ale zdjęcie będzie miało także 2 Mpx. Zanim jednak kompresja zostanie dokonana, najpiew aparat fotograficzny wykona zdjęcie o wielkości zgodnej z naszym zamiarem, czyli 2 Mpx, a później dokonana zostanie kompresja barw w celu zmniejszenia wielkości zapisu. Będzie to na pewno mniejsze zdjęcie niż o rozmiarze 5 Mpx.
    Moje pytania zatem dotyczą “losu” odrzuconych pikseli przy zmniejszaniu rozmiaru zdjęcia, a nie przy kompresji stratnej. Zauważ, że kompresja JPG odbywa się wyłącznie w obszarze chrominacji (barw), a nie luminacji(jasności). JPG nie odrzuca zatem żadnego piksela, a jedynie uśrednia barwy pikseli według własnego algorytmu, który chyba jest tajemnicą zawodową wytwórcy aparatu. Dlatego JPG nie wpływa na rozmiar zdjęcia.

  9. @Józef. Jeśli zrobisz zdjęcie i ustawisz mniejszy rozmiar zapisu np. zamiast 5 Mpx ustawisz 2 Mpx, to oprogramowanie w aparacie przeliczy 5 Mpx na mniejsze 2 Mpx i tyle. Informacja o “odrzuconych” pikselach jest tracona. Nie ma jej, przepadła. Nie znam dokładnie jak ten algorytm działa, ale podejrzewam że jest to robione jeszcze na danych z matrycy, bo oprogramowanie aparatu w zależności od konstrukcji matrycy musi przekonwertować informację z niej uzyskaną na postać pikselową. Na matrycy nie nasz pikseli w dosłownym tego słowa znaczeniu. Są np. receptory czułe na poszczególne barwy światła: zazwyczaj jeden na czerwoną, jeden na niebieską i dwa na zieloną. Dopiero z tego jest w uproszczeniu tworzony “piksel” po uwględnieniu jeszcze szeregu dodatkowych ustawień (np. korekty zniekształceń obiektywu, odszumianie itd.) w przypadku zapisu JPG.

  10. Przemku.
    Nie wiem, czy Twoja wiedza o przekonwertowaniu danych z matrycy na postać pikselową oraz, że na matrycy nie ma pikseli w dosłownym znaczeniu, jest rzeczywista czy tylko przypuszczeniem, ale jest dla mnie bardzo przekonywująca.
    Chociaż w opracowaniu nt. fotografii cyfrowej, które specjalnie kupiłem, jest mowa wyraźnie o pikselach na matrycy. Jeśli zatem bliższe prawdy jest twierdzenie w tym opracowaniu, to dzięki Twojej odpowiedzi doszedłem do wniosku, że obraz o żądanej wielkości (przykładowe 5 Mpx czy 2 Mpx) tworzony jest przez program w aparacie fotograficznym na podstawie danych z matrycy(piksli na matrycy), który (ten program)tworzy nowe piksele w żądanej ilości i o określonej wartości, według założonego algorytmu.
    Mój szacun. Dzięki.

  11. @Józef. Jeśli chodzi o “piksele” to pewnie kwestia nazewnictwa. Jeśli plik ze zdjęciem w JPG mocno powiększyć na monitorze komputera to będzie on pokazany w postaci kwadratu o określonej barwie, która może być zapisana jako składowa RGB. Jeśli powiększyć pod lupą matrycę aparatu to będzie widać umieszczone obok siebie receptory, komórki światłoczułe, których każda zbiera światło o innej barwie: czerwonej, zielonej lub niebieskiej. Dlatego taka pojedyncza komórka światłoczuła nie jest pikselem bo ma informację tylko o jednej barwie składowej. Dopiero połączenie informacji z kilku (zazwyczaj czterech) komórek daje informację o barwie “piksela”. Być może taką postać “piksela” miał na myśli autor książki. Konstrukcje matryc są różne, więc i ten opis też jest ogólny. Samo rozmieszczenie komórek światłoczułych na matrycach też może wyglądać odmiennie. Czytałem kiedyś o matrycy, w której występowały komórki o większej i mniejszej czułości na światło. Dzięki temu matryca rejestrowała obraz o większej dynamice niż normalnie. Więc na pewno jest w aparacie oprogramowanie, które tłumaczy surową informację z matrycy na zrozumiały dla programów graficznych plik JPG o określonym rozmiarze w pikselach.

Dodaj komentarz