Sprawdzanie
Szeroki Kadr
Poradnik: Sprzęt | Zagadnienia techniczne | 22.08.2013 | Średnio zaawansowani | Powiększ tekst:

Wstęp do fotografii cyfrowej. Część 2

Tomasz Kulas

W tej części zajmiemy się analizą zagadnień mocniej związanych ze współczesną, cyfrową odmianą fotografii. Nie znaczy to oczywiście, że niektóre z nich nie istniały już wcześniej.

Dodaj do schowka Komentarze: 4

Wstęp

W części pierwszej Wstępu do fotografii cyfrowej omówiłem pojęcia ogólnofotograficzne, takie jak pomiar ekspozycji, czas naświetlania czy stopień otwarcia przysłony. Tym razem skoncentruję się na elementach fotografii identyfikowanych z „epoką cyfry”, choć warto pamiętać, że tak naprawdę wiele z nich występowało już wcześniej. Podobnie jak w przypadku części pierwszej ideą artykułu nie jest jednak tworzenie słownika fotografii czy podręcznika dla początkujących, lecz analiza najważniejszych zagadnień od strony praktycznej.

Matryca światłoczuła

Matryca światłoczuła to samo jądro i kwintesencja fotografii cyfrowej, opisywane we wcześniejszym artykule. Zadaniem matrycy (sensora, czujnika – stosuje się wymiennie różne pojęcia) jest rejestracja poziomu natężenia światła padającego na daną powierzchnię za pomocą specjalnych komórek światłoczułych, zwanych potocznie (choć w zasadzie błędnie) pikselami. Zespół takich pikseli tworzy właśnie matrycę, a cała reszta to sztuka przetwarzania rejestrowanych w ten sposób informacji. Na dobrą sprawę wszystkie omawiane niżej „cyfrowe” zagadnienia dotyczące fotografii w jakiś sposób dotyczą matryc światłoczułych.

W przypadku fotografii tradycyjnej w pewnym sensie „szlachcic na zagrodzie równy (był) wojewodzie” – taki sam świetny materiał światłoczuły mogliśmy włożyć do Nikona F5, jak i do Nikona F55. Jeśli podłączyliśmy do obu korpusów te same obiektywy, to jakość obrazu – mimo ogromnej różnicy w cenie korpusów – była niemal identyczna.

Warto sobie uświadomić, jak mocno fotografia cyfrowa namieszała pod tym względem. Po pierwsze, zwykle bywa tak, że lepsze (i droższe) aparaty mają też lepsze matryce, dające obraz o wyższej szczegółowości, większej dynamice i niższym poziomie szumów. Ale jest też druga strona tego medalu – rozwój technologiczny. Czas bardzo okrutnie obchodzi się nawet z wysokiej jakości profesjonalnymi lustrzankami cyfrowymi – współcześnie produkowane znacznie prostsze i tańsze modele pozwalają często rejestrować lepszej jakości zdjęcia niż aparaty profesjonalne starszej generacji. Dlatego pierwsza odpowiedź na pytanie, jaką matrycę wybrać, jest prosta: jak najnowszą.

Nikon D800E to niezwykły aparat – jeden z niewielu modeli, które pozbawione są efektu działania filtra dolnoprzepustowego umieszczonego przed matrycą. Rezultat – jeszcze ostrzejsze zdjęcia oraz większa podatność na morę.

CCD, CMOS i inni

Ogólnie rzecz biorąc, niezależnie od technologii budowy każda matryca światłoczuła rejestruje natężenie światła i przekłada tę informację na poziom sygnału elektronicznego. Jednak jeszcze kilka lat temu każde forum fotograficzne rozpalał do czerwoności temat pojedynku między dwiema najpopularniejszymi metodami budowy matryc: CCD (Charge-Coupled Device) i CMOS (Complementary Metal-Oxide Semiconductor). Wydawało się, że przewaga CCD – chętniej stosowanego w bardziej zaawansowanych i droższych konstrukcjach – jest niezagrożona, a tymczasem dziś najczęstszym typem matrycy spotykanym w aparatach (czy nawet smartfonach) jest właśnie CMOS. Jest to równocześnie technologia najdynamiczniej rozwijana, ale… nikt nie zagwarantuje,że za kilka lat się to nie zmieni.

Prosta zmiana kolejności warstw na matrycy zaowocowała tym, że do komórek światłoczułych dochodzi znacznie więcej światła.

Dlatego wybierając aparat, naprawdę nie warto sugerować się tajemniczo brzmiącymi oznaczeniami. Generalnie jest tak – choć oczywiście zawsze znajdą się wyjątki od reguły – że nowsze aparaty wyposażone są w lepsze matryce. Obecnie „lepsze” oznacza zazwyczaj wykorzystanie technologii CMOS typu BSI, a więc matryc o częściowo odwróconej strukturze warstw. Dzięki temu, że warstwa komunikacyjna sensora znalazła się pod elementami światłoczułymi, do tych ostatnich dociera więcej światła. Sporo więcej! Zysk jakościowy wynosi ok. 1 EV.

Nowe trendy w budowie matryc

Choć nie wszystkie innowacje mają proste przełożenie na praktykę, warto wiedzieć o jeszcze kilku tendencjach, jakie można zaobserwować w dziedzinie produkcji matryc światłoczułych. Pierwszą z nich jest osłabianie działania lub nawet całkowite usuwanie filtra dolnoprzepustowego, umieszczanego tradycyjnie przed matrycami CMOS czy CCD. Ma on za zadanie nieznacznie rozmyć obraz padający na przetwornik, chroniąc równocześnie przed powstaniem efektu aliasingu (dlatego filtr nazywany jest często antyaliasingowym, w skrócie AA). Niestety, jego działanie bezpośrednio obniża jakość obrazu, dlatego obecnie niemal wszyscy producenci osłabiają jego działanie, a czasem nawet decydują się na jego usunięcie. Ciekawym przykładem takiego rozwiązania jest Nikon D800E, który – w przeciwieństwie do zwykłego modelu D800 – pozbawiony jest całkowicie filtra dolnoprzepustowego (a mówiąc ściśle: filtry umieszczone przed matrycą nie działają antyaliasingowo). Dzięki temu rzeczywiście pozwala on rejestrować obrazy o wyższej szczegółowości (nawet od bardzo udanego Nikona D800), ale na niektórych zdjęciach możemy dostrzec efekt aliasingu, zwany też efektem mory.

Kolejną ciekawą tendencją jest integrowanie matrycy z czujnikami autofokusu, pracującymi w trybie detekcji fazy. Sama matryca jest oczywiście jednym wielkim czujnikiem, pozwalającym określić maksymalną ostrość poprzez zwykłą detekcję kontrastu w wybranym punkcie kadru, jednak „lustrzankowa” detekcja fazy bardzo często okazywała się szybsza. Miała jednak kilka wad – nie działała przy podniesionym lustrze oraz mogła powodować problemy z ustawianiem ostrości w złym miejscu (tzw. frontfokus lub backfokus). Nowe matryce, takie jak te zastosowane w bezlusterkowcach Nikon 1, są tych problemów pozbawione, dzięki czemu ostrość jest ustawiana bardzo szybko (więcej na ten temat pisałem w pierwszej części artykułu). Widać jednak wyraźnie, że pomysłowość projektantów matryc dopiero się rozkręca. Niewątpliwie będziemy w przyszłości świadkami kolejnych ciekawych rewolucji technologicznych. Rewolucji, które zapewne jeszcze raz potwierdzą zasadę, że najlepszą matrycą jest matryca najnowsza.

Jak wydobyć kolor?

Na razie nie zmienił się za to inny szczegół budowy matryc cyfrowych: filtr barwny umieszczony przed czujnikami. Nadal jest też tak, że – poza nielicznymi wyjątkami – większość producentów wykorzystuje standardowy wzór takiego filtra, zwany mozaiką Bayera.

 pełny kadr powiększenie fragmentu Zdjęcie wiewiórki wykonane przy wysokiej czułości (ISO 4000) w taki sposób, by maksymalnie ograniczyć wszelkie działania odszumiające programu. Łatwo zaobserwować, jaką przewagę zyskuje zielony kanał barwny dzięki specyfice mozaiki Bayera. Szum na zielonych fragmentach kadru jest znacznie mniej widoczny i jednocześnie przyjemniejszy w odbiorze niż ciemna kora drzewa czy ruda wiewiórka.

Po co w ogóle jest filtr barwny i jak to się przekłada na praktykę? Pierwsza część odpowiedzi jest prosta – po to, żeby zdjęcie przestało być monochromatyczne (same piksele dostarczają informacji o poziomie jasności obrazu w danym miejscu), a zaczęło być kolorowe. W tym celu filtr barwny blokuje dostęp do matrycy wielkiej ilości światła: odcina aż dwie trzecie światła czerwonego i niebieskiego, a także jedną trzecią światła zielonego. Dzięki temu procesor aparatu wie, jakie jest natężenie światła dla poszczególnych składowych RGB, z tym że jest to wiedza mocno dziurawa. Dlatego jego działanie w pierwszym rzędzie polega na „domyśleniu się”, jakie są pozostałe, „wycięte” składowe kolorystyczne w każdym punkcie obrazu. Innymi słowy: w zdecydowanej większości matryc spotykanych we współczesnych aparatach cyfrowych około dwóch trzecich informacji obrazowych jest po prostu wymyślanych przez aparat.

I teraz druga część odpowiedzi: warto zdać sobie sprawę z tego, że najwięcej (dokładnie dwa razy więcej) informacji procesor dostaje w kanale zielonym. Tak to wymyślił pan Bayer (nie ten od aspiryny, tylko pracownik firmy Kodak), wzorując się na większej wrażliwości oka ludzkiego właśnie na tę długość fal. Jak możemy to wykorzystać? W pierwszym rzędzie pośrednio – poprzez używanie różnorakich algorytmów do odszumiania zdjęć. Bardzo często bazują one (oczywiście w dużym uproszczeniu) na informacjach z kanału zielonego, poprawiając kanały niebieski i czerwony. Po drugie bezpośrednio, bo mając świadomość budowy mozaiki Bayera, w niektórych przypadkach możemy tak dobrać kolorystykę fotografowanych motywów, by osiągnąć lepszą jakość obrazu. Oczywiście często jest tak, że róża jest po prostu czerwona, niebo niebieskie, a trawa zielona – i nie mamy nic do gadania. Ale czasami taki wybór istnieje.

Jak wydobyć szczegóły?

Kwestia rejestracji maksymalnie szczegółowych zdjęć najpierw wydaje się prosta, potem nieco się komplikuje, a później komplikuje się jeszcze bardziej.

Wersja najprostsza, ukochana przez speców od marketingu, brzmi tak: im większa rozdzielczość matrycy, tym lepszej jakości, bardziej szczegółowy obraz. I rzeczywiście, przez wiele lat rozwoju fotografii cyfrowej była to wersja prawdziwa, dlatego na początku jedynym zmartwieniem producentów było upchnięcie na matrycy jak największej liczby pikseli. Tak rozpoczął się słynny wyścig na megapiksele, który w niektórych segmentach rynku trwa zresztą do tej pory. W dużym uproszczeniu jego hasło to: „Im więcej megapikseli, tym lepiej”.

f/2,8 f/4 f/5,6 f/8 f/11 f/16 f/22 Na serii zdjęć pokazujących pełny kadr widać, że wraz z przymykaniem przysłony obiektywu powiększa się głębia ostrości. Ale trzeba pamiętać o tym, że już gdzieś od otworu f/11 zaczyna o sobie dawać znać zjawisko dyfrakcji.

Sytuacja skomplikowała się wtedy, gdy do głosu doszły prawa optyki, ze zjawiskiem dyfrakcji na czele (o dyfrakcji i innych zagadnieniach związanych z optyką przeczytasz we wcześniejszych artykułach: Jak to działa? Część 2 – Optyka oraz Jak to działa? Część 3 – Optyka po raz drugi. Okazało się, że dla każdej matrycy – w zależności od jej wielkości – można obliczyć tak zwany limit dyfrakcyjny, zależący oczywiście również od wybranego otworu przysłony obiektywu. Dlatego bardziej wtajemniczeni i świadomi użytkownicy aparatów już od dobrych kilku lat wołają, że dalsze pompowanie rozdzielczości, zwłaszcza w przypadku matryc o mniejszej powierzchni, nie ma sensu. I mają rację, choć też nie do końca. Hasło „Liczy się tylko powierzchnia matrycy” też nie jest bowiem do końca prawdziwe.

f/2,8 f/22 Dopiero w zbliżeniu widać, że choć głębia ostrości przy przysłonie przymkniętej do f/22 jest znacznie większa, to ogólna ostrość obrazu zdecydowanie się pogorszyła, właśnie na skutek dyfrakcji.

A wszystko dlatego, że dyfrakcję można korygować elektronicznie, tak samo jak aberracje, winietowanie czy dystorsję. Dopiero niedawno producenci zaczęli o tym mówić, ale w sumie nie jest to jakieś ogromne odkrycie. Tak samo jak w przypadku wielu innych wad obrazu proces poprawiania jego jakości (przynajmniej ten najskuteczniejszy) opiera się na wcześniejszej dogłębnej znajomości charakteru wykorzystywanego obiektywu. W tym informacji o tym, w jaki sposób rozmywa on obraz na skutek procesu dyfrakcji.

Warto zdać sobie sprawę z tego, że aparaty (a także zaawansowane programy do obróbki RAW) korygują wiele wad obiektywu zupełnie bez naszej wiedzy. Tak dzieje się w przypadku plików JPEG, które już po wyjściu z aparatu są tak naprawdę poddane wielu procesom korekcyjnym. Tak niestety działają też zaawansowane programy do obróbki RAW-ów, które wprowadzają wiele poprawek nawet w sytuacji, gdy suwaki ustawione są na pozycję „0”. Dopiero wywołanie zdjęcia prostym „rawerem” pozwala odkryć w miarę prawdziwy, surowy obraz zdjęcia. Poprawiane są – oczywiście nie zawsze, w zależności od producenta, modelu itd. – takie wady jak dystorsja, winietowanie, aberracja i… coraz częściej również dyfrakcja.

Plik JPEG (poprawiony przez aparat) Plik RAW („surowy”)

Mówiąc bardziej po ludzku: to, że dla danej wielkości matrycy limit dyfrakcyjny został już przekroczony lub aktualnie producenci balansują na jego krawędzi, nie oznacza, że ze współczesnych aparatów nie da się wycisnąć jeszcze więcej. Da się, być może niewiele więcej, ale da się. Warto o tym pamiętać.

Wielkość matrycy

Ten temat jest nierozłącznie związany z jakością i realną rozdzielczością obrazu, czyli tym, o czym mówiliśmy przez chwilą. A równocześnie jest też typowy dla epoki fotografii cyfrowej, bo choć fotografia tradycyjna również posługiwała się kilkoma formatami materiałów światłoczułych, to jednak zdecydowanie dominował jeden z nich: małoobrazkowy 135 (wielkość klatki 24×36 mm).

W przypadku fotografii cyfrowej liczba wersji, wielkości i formatów matryc jest zdecydowanie większa. Dominacja formatu małoobrazkowego zakorzeniła się jednak na tyle mocno, że również obecnie dla wielu osób „matryce pełnoklatkowe” stały się wyznacznikiem profesjonalizmu, do którego warto dążyć za wszelką cenę. Tymczasem to po prostu jeden z wielu dostępnych formatów. Istnieją aparaty wykorzystujące mniejsze sensory, istnieją konstrukcje z matrycami jeszcze większymi – i każde rozwiązanie ma swoje wady i zalety. Dlatego nie warto poddawać się owczemu pędowi ku pełnej klatce, tylko samemu świadomie zdecydować, jakie parametry są dla nas najważniejsze.

Zasada jest prosta: im większa matryca, tym większe wymagane koło obrazowe, a w rezultacie większe wymiary zarówno aparatu, jak i obiektywów, które do niego podłączamy. Nie każdy lubi dźwigać aparat średnioformatowy lub lustrzankę pełnoklatkową, nawet tak „niedużą”, jak Nikon D600. Jeśli szukamy kompromisu między wymiarami sprzętu, a jego możliwościami, możemy zejść stopień niżej i wybrać lustrzankę lub bezlusterkowca z matrycą typu APS-C, 4⁄3 lub nawet 1 cal. W tej grupie sprzętu nadal możliwe jest osiągnięcie bardzo wysokiej jakości obrazu (choć oczywiście większe formaty mają w tym względzie pewną przewagę), jak również zarejestrowanie zdjęć o ładnie rozmytym tle.

Trzecia grupa to aparaty – najczęściej kompaktowe – wyposażone w nieduże matryce, najczęściej 1/2,3 cala lub 1/2,33 cala. W tym przypadku bonusem są zwykle naprawdę kieszonkowe wymiary oraz zoom optyczny o imponujących parametrach: od 20× w górę. Oczywiście jest też pewien minus – stosunkowo „płaski” obraz (wszystkie plany są najczęściej ostre) o dość przeciętnej, niemniej akceptowalnej jakości.

Wracając jeszcze na moment do kwestii limitu dyfrakcyjnego: jeśli chodzi o lustrzanki wyposażone w sensory pełnoklatkowe i większe, producenci mają jeszcze – w dużym uproszczeniu, bo zależy to od wielu czynników – pewien zapas rozdzielczości, którą mogą zwiększać. W przypadku środkowej grupy matryc (APS-C i nieco mniejsze) zdrowy rozsądek nakazywałby już stanowcze wyhamowywanie wyścigu na megapiksele, choć mechanizmy elektronicznej korekcji dyfrakcji mogą tu trochę pomóc. Natomiast w przypadku typowych aparatów kompaktowych z niedużymi matrycami limit dyfrakcyjny już dawno został przekroczony. W tym przypadku to, czy kupimy model z 10, czy 20 milionami pikseli, tak naprawdę nie ma większego znaczenia...

Więcej informacji na temat wielkości matryc światłoczułych znajdziecie we wcześniejszym artykule.

Czułość ISO, szumy i dynamika obrazu

oryginalny plik plik po obróbce Proste – zdawałoby się – zdjęcie, a stanowi duże wyzwanie dla matrycy aparatu. W kadrze znajdują się bowiem zarówno fragmenty bardzo jasne (niebo), jak i bardzo ciemne (zacieniony bok chaty). Dopiero dzięki dość radykalnej obróbce udało się wydobyć więcej szczegółów ze świateł i cieni, ale było to możliwe tylko dlatego, że zdjęcie zostało zarejestrowane przy najniższej, natywnej czułości ISO aparatu.

Moim zdaniem jedną z najwspanialszych zalet fotografii cyfrowej jest ogromna łatwość regulacji poziomu wzmocnienia sygnału, stanowiącego ekwiwalent czułości ISO tradycyjnych materiałów światłoczułych. W gruncie rzeczy doszedł nam bowiem trzeci parametr, którym możemy na bieżąco wpływać na ekspozycję, obok czasu naświetlania i stopnia otwarcia przysłony. Co prawda tradycyjna fotografia również umożliwiała regulację czułości materiału światłoczułego, ale oczywiście tylko raz, w czasie wyboru rolki filmu.

Co więcej, regulacja czułości ISO to jeden z tych elementów, w których dokonał się ostatnimi laty największy postęp. Współczesne algorytmy odszumiające są zdecydowanie skuteczniejsze niż kiedykolwiek i dają z reguły obraz o ładnej charakterystyce. Tę tendencję już kilka lat temu zapoczątkował Nikon – właśnie w aparatach tej firmy zaczęto stosować stosunkowo prosty chwyt, polegający na silnym odszumianiu w kanale chrominancji, a znacznie delikatniejszym w kanale luminancji. Efektem jest „rasowe ziarno”, a nie „kolorowe ciapki”, do jakich byliśmy przyzwyczajeni wcześniej.

Automatycznie zwiększają się też dostępne zakresy czułości ISO. Rekordziści, tacy jak Nikon D4, oferują wzmocnienie sygnału nawet na poziomie ponad dwustu tysięcy ISO (dokładniej: ISO 204 800)! Przy takim ustawieniu fotografowanie aparatem trzymanym w dłoni przy świetle księżyca (lub nawet bez niego) nie stanowi większego problemu.

ISO 200 ISO 400 ISO 800 ISO 1600 ISO 3200 ISO 6400 ISO 12800 Zwykle jest tak, że producenci ustalają zakres czułości ISO aparatu co najmniej o 1–2 EV na wyrost. W praktyce sprawdza się więc zasada, że jeśli aparat oferuje np. maksymalną czułość ISO 6400, to zdjęcia zachowają akceptowalną jakość do czułości ISO 3200, czasem tylko ISO 1600. W tym przypadku widać, że dwie ostatnie czułości (ISO 6400 i ISO 12 800) są już z praktycznego punktu widzenia raczej nieprzydatne. Jeśli dążymy jednak do perfekcji i uzyskania najlepszej jakości obrazu, warto zauważyć, że nawet między ujęciem zarejestrowanym przy ISO 200 a ujęciem z ISO 400 widać już negatywne różnice.

Jest jednak druga strona medalu, o której nie wszyscy zdają się pamiętać – zakres tonalny obrazu. Jest on zależny od dwóch elementów: samej matrycy oraz ustawionej czułości ISO. I tu rzeczywistość jest bardzo brutalna – każde zwiększenie poziomu wzmocnienia sygnału nawet o 1 EV opłacamy zauważalnym pogorszeniem zakresu tonalnego. Pół biedy, jeśli fotografujemy scenę, która nie jest zbyt wymagająca, bo różnice pomiędzy najjaśniejszymi a najciemniejszymi miejscami w kadrze nie przekraczają 2–3 EV. Jeśli jednak przekraczają 5 EV, matryca aparatu staje przed coraz poważniejszym wyzwaniem, a przy różnicach powyżej 8 EV musi dać z siebie wszystko. Jest to możliwe tylko wtedy, gdy ustawimy na niej natywną czułość ISO, czyli taką, która nie wymaga wzmacniania sygnału (z reguły najniższą, choć nie zawsze). Przy wyższych czułościach albo zarejestrujemy w pewnych miejscach czarne lub białe plamy, albo – w najlepszym przypadku – trochę szczegółów, ale o wyraźnie gorszej jakości.

Balans bieli

Proste, ale zmyślne rozwiązanie – wiele aparatów Nikona oferuje dwa tryby automatycznego balansu bieli lub korekcji światła żarowego: mocny (zdjęcie wygląda niemal tak, jak zarejestrowane przy świetle dziennym) lub też delikatny (zdjęcie zachowuje ciepły charakter, typowy dla zdjęć przy świetle sztucznym).

To także element, na który teoretycznie wpływać mógł również fotograf posługujący się tradycyjnym aparatem – do wyboru miał bowiem materiały przystosowane do światła dziennego (absolutna większość) lub żarowego (np. Kodak Professional Porta 100T). W praktyce jednak częsta regulacja balansu bieli rozpoczęła się właśnie w epoce fotografii cyfrowej.

Współczesne aparaty oprócz pełnej automatyki oferują z reguły co najmniej kilka ustawień predefiniowanych (światło dzienne, zachmurzone niebo, cień, światło żarowe, światło jarzeniowe), ale różnią się między sobą pod tym względem. Diabeł, jak to zwykł czynić, tkwi w szczegółach. Jednym z nich są dwa rodzaje preselekcji światła żarowego. To bardzo przydatna opcja, ponieważ często bywa tak, że ustawienie balansu bieli „na żarówkę” bardzo mocno koryguje kolorystykę fotografowanej sceny. Tymczasem często chodzi o to, by zachować charakter utrwalanej sceny, wraz z barwami typowymi dla wnętrz, a nie chociażby krajobrazów.

Inny szczegół, na który warto zwrócić uwagę, to specjalne preselekcje do zdjęć podwodnych. Dotyczy to oczywiście wodoodpornych aparatów kompaktowych, ale nie tylko – tak naprawdę nurkować można niemal z każdym aparatem. To także przykład niezwykłej pomysłowości projektantów: niektóre aparaty zmieniają nawet balans bieli pod wodą w zależności od… głębokości, na jaką są zanurzone!

automatyka balansu bieli ustawienie predefiniowane na „chmurkę” Tę fotografię wykonywałem w czasie deszczu, dzięki czemu woda na chodniku zadziałała jak lustro. Było szaro, buro i ponuro. Wystarczyło jednak zmienić balans bieli z automatycznego na „chmurkę”, by świat nabrał nieco barw.

W bardziej profesjonalnych zastosowaniach ważne są za to inne opcje: możliwość ręcznego ustawienia balansu bieli, a także ustalenia jego temperatury barwowej (w kelwinach). Rzadką, ale niezwykle profesjonalną opcją jest też możliwość wgrania i stosowania własnych profili barwnych, przygotowanych na przykład na podstawie fotografii wzorców kolorystycznych, takich jak tablica XRite (dawniej Gretag Macbeth). Jeśli ktoś zawodowo zajmuje się na przykład reprodukcjami obrazów, taka funkcja bardzo ułatwia pracę.

Dla zwykłego użytkownika ważne są jednak dwa inne ustawienia: „chmurka” (teoretycznie tylko na niepogodę) oraz „cień”. Bardzo polecam ich stosowanie! Nie zawsze na dworze świeci słońce, z reguły w naszym klimacie z pogodą bywa różnie. Automatyczny balans bieli sprawia w takich sytuacjach, że wszystko wydaje się nawet jeszcze bardziej szare, niż jest w rzeczywistości. Natomiast ustawienie „na chmurkę” lub w razie potrzeby „na cień” powoduje, że obraz zauważalnie się ociepla. Za taki efekt fotografowie uwielbiali niegdyś materiały Kodaka – dziś mamy do niego dostęp po naciśnięciu paru przycisków.

Zakończenie

Jak wstęp, to wstęp. Jest mnóstwo rzeczy, o których warto by jeszcze napisać, i tematów, które powinny zostać rozwinięte mocniej, ale zagadnień związanych z fotografią cyfrową starczyłoby swobodnie na wielotomową księgę, a nie tylko samo wprowadzenie. Pamiętajmy jednak, że w fotografii liczy się nie tylko wiedza, lecz także – a może nawet przede wszystkim – doświadczenie. Najlepszą szkołą fotografowania jest wzięcie aparatu w dłoń i fotografowanie. Do czego wszystkich zachęcam!

Tekst: Tomasz Kulas
Zdjęcia: Tomasz Kulas, materiały firmy Nikon

Oznacz jako przeczytane
Masz propozycję na temat poradnika?: Napisz do nas
Oceń :

Komentarze

gradanto

gradanto 2013-09-04 08:32:23

Artykuł bardzo ciekawy, zrozumiały i użyteczny.

krecio

Zgadzam się z GRADANTO, że artykuł jest ciekawy i bardzo pomocny, ale czy aby takie artykuły nie powinny pojawić się dużo wcześniej?

croodoshi

Świetna sprawa, przystępnie napisane, idealnie na poziom 'średnio zaawansowanych'. Każdy prawie akapit był dla mnie nowością, także tekst rzucił nowe światło na kwestię cyfrówek. Dzięki!

Dodaj komentarz

Ponieważ nie jesteś zalogowany, Twój wpis będzie musiał zostać zaakceptowany przez moderatora.

Dodaj swój post

naplatki

Fotografujemy zaćmienie Księzyca2017-08-17 20:31:31 naplatki

Pomocny artykuł ale czy wystarczająco by tak z fotografować księżyc jak na poniższym…

monika.rogalska.77

Dzikie zwierzę2017-08-17 08:39:26 monika.rogalska.77

W regulaminie napisane jest, ze do 14tego,ale czesto wyniki sa pozniej....pozostaje czekac…

kawus

David C. Schultz2017-08-16 23:28:13 kawus

niesamowite są t zdjęcia:) fotograficzny majstersztyk:)…

weronika.foto

Dzikie zwierzę2017-08-16 23:27:38 weronika.foto

Kiedy zostanie rozstrzygnięty konkurs?…