Begrijpen hoe autofocus werkt deel 2

Na onze eerste blik op autofocus zullen we nu een meer technische benadering volgen. Ik ben er vast van overtuigd dat hoe meer je begrijpt over je camera en hoe deze de wereld interpreteert vanuit een technisch perspectief, hoe meer je eruit kunt halen om nauwkeurig je visie te creëren.


De snelle technische geschiedenis

Leitz, nu bekend als Leica, startte in 1960 patent op een reeks autofocussysteemtechnologieën en demonstreerde een autofocuscamera bij Photokina (die begon in 1950) in 1976. De eerste in serie geproduceerde AF-camera was de Konica C35 point-and-shoot uitgebracht in 1977. De eerste AF 35mm SLR was de Pentax ME-F in 1981, gevolgd door een vergelijkbare Nikon F3AF in 1983.


De Pentax ME-F uit 1981 met SMC Pentax AF Zoom 1: 2,8 35 ~ 70 mm lens. (Afbeelding van Wikimedia)

Oorspronkelijk hadden al deze vroege AF SLR's lensmotoren, in wezen een standaardlens met een groot lelijk motorblok erop geplakt. Dit ging zo door totdat de Minolta Maxxum 7000 uit 1985 samen met de sensoren de aandrijfmotor in de camerabehuizing had.

Dit was de eerste AF SLR die redelijk commercieel succes had. De eerdere pogingen waren traag, niet accuraat en werkten alleen onder ideale omstandigheden, wat niet echt de dubbele kosten rechtvaardigde in vergelijking met vergelijkbare handmatige focuscamera's. De Maxxum 7000 kost Minolta 130 miljoen dollar in 1991 na een langdurige patentstrijd met het Amerikaanse bedrijf Honeywell over de AF-technologie.


Minolta Maxxum 7000 van een latere productierun; de X's zijn niet gecrossed, het resultaat van juridische actie van Exxon. Foto door teamgriggs

Nikon volgde het kostuum van Minolta, maar keerde in 1992 terug naar objectiefmotoren, vandaar dat moderne instapleverende Nikons geen geïntegreerde AF-aandrijfmotor hebben. Canon's EOS (elektro-optische systeem) AF-systeem ontstond in 1987, waar ze veel fotografen irriteerden door de FD-lensvatting te laten vallen en de volledig elektronische EF-steun te creëren.

FD met zijn mechanische koppelingen en bajonetvatting met kraagbevestiging versus de EF met elektronische contacten en bajonetsluiting op het lichaam.

Welnu, dat is over het algemeen wat er gebeurde en de volgorde waarin het gebeurde. Dus hoe zit het met de technologie zelf? Laten we een beetje meer graven.


Fysieke implementaties

Fasedetectie

Phase detect autofocus is de snelle AF op DSLR's (en in toenemende mate spiegelloze camera's als onderdeel van een hybride AF-systeem). Bij DSLR's is een deel van de hoofdspiegel semi-verzilverd en passeert ongeveer een kwart van het licht van de lens naar een kleine secundaire spiegel erachter en naar beneden in de onderkant van de spiegeldoos. In de basis bevinden zich kleine lenzen die het licht van de randen van de lens op de CCD-sensorarray richten.

Basis van een spiegeldoos, met anti-reflectieve geometrie en poorten voor AF-licht. De randen van de lenzen daar beneden zijn zo ongeveer zichtbaar door de gaten. Ziet er ook een beetje stoffig uit!

De array bestaat over het algemeen uit een aantal eendimensionale stroken pixels in verschillende oriëntaties. Elke strip kan alleen een functie zien die er haaks op staat, omdat de enige verandering die deze kan zien, langs de lijn is. Als een functie in de afbeelding evenwijdig is aan de strip, kan deze alleen een bepaald aspect van de functie in één keer zien, in plaats van de 'vorm' ervan.

Contrastdetectie

Contrastdetectie bestaat over het algemeen direct op de beeldsensor zelf, vandaar het gebruik ervan in livebeeld op DSLR's. Het is meestal het enige detectiesysteem dat beschikbaar is op spiegelloze en compacte camera's. Het is een software-implementatie, dus er is geen fysieker aspect meer aan, alleen de sensor en een processor.

Hybride detectie

Zoals de naam al aangeeft, een combinatie van beide systemen. Dit kan de vorm aannemen van het converteren van enkele van de sensorpixels naar AF-pixels of het hebben van een fase-detectiegroep die over de sensor is gelaagd, die vervolgens samen met het contrastdetectiesysteem achter elkaar werkt om de AF-snelheid te verbeteren.


Hoe dingen werken

Oké, nu weten we de fysieke instellingen voor elk type AF-systeem, laten we bespreken hoe zij hun respectieve implementaties gebruiken om hun werk te doen.

Focus en afstand

De samengestelde lens (een enkelvoudig optisch systeem dat bestaat uit een aantal eenvoudige lenzen, meestal "elementen" genoemd in het fotografieliteratuursysteem in uw cameralens, gebruikt één of meer bewegende lenzen om de lichtstralen op het afbeeldingsvlak te focussen.

De afstand tot het onderwerp bepaalt hoe ver de correctielens moet bewegen om scherp te stellen. Beschouw het als een bril voor de hoofdoptiek, behalve dat de positie van de lens wordt gewijzigd in plaats van te worden gewijzigd.

Laten we een heel eenvoudig voorbeeld nemen met slechts één simpele lens, om te laten zien dat het beeld beweegt als het onderwerp beweegt, benaderd door de formule met de dunne lens:

$$ 1 \ over f = 1 \ over S_1 + 1 \ over S_2 $$

Deze vergelijking gaat uit van lenzen met een verwaarloosbare dikte in de lucht, dus het vertaalt zich niet nauwkeurig naar echte lenzen, maar het stelt me ​​in staat om het eenvoudiger te maken..


Zeer eenvoudige opstelling van de lens, net als het verplaatsen van een vergrootglas voor uw oog.

We gebruiken een puntlichtbron met een lens met een brandpuntsafstand van 1 m (1000 mm). Dit geeft een \ (1 \ over f \) waarde van 1. Als \ (S_1 \) twee meter is, is \ (1 \ over S_1 \) 0.5. Dus \ (S_2 \) is ook 2m wanneer de lens gefocust is. Als we het onderwerp van de puntbron terug naar 8 m van de lens verplaatsen, wordt \ (1 \ over S_1 \) 1/8. Om te compenseren, moet \ (1 \ over S_2 \) 7 \ 8 worden, wat een \ (S_2 \) waarde van 8/7, of 1.14m vereist. Natuurlijk is de \ (S_2 \) waarde vast als de sensor stationair is, dus wordt het beeld onscherp.

Als we een tweede, corrigerende lens op afstand \ (d \) van de eerste in dit optische systeem plaatsen om een ​​samengestelde lens te maken, kunnen we het beeld scherpstellen terwijl het onderwerp beweegt. De gecombineerde nieuwe brandpuntsafstand is, volgens de samengestelde dunne lensvergelijking:

$$ 1 \ over f = 1 \ over f_1 + 1 \ over f_2 - d \ over f_1 f_2 $$

Dus we hebben een nieuwe brandpuntsafstand. De afstand van de nieuwe lens tot het nieuwe focuspunt voor het gecombineerde systeem wordt de back-brandpuntsafstand genoemd, wat een relatief bekende term in de fotografie moet zijn, omdat dit de afstand is van het achterelement naar de sensor. Als ik de back-brandpuntsafstand "\ (d_2 \)" noem, wordt dit gegeven door:

$$ d_2 = f_2 (d - f_1) \ over d - (f_1 + f_2) $$

Laten we een voorbeeld proberen waarbij het beeld gefocust is op een vast beeldvlak, waarna het onderwerp beweegt. Het toevoegen van divergerende corrigerende lenzen en het crunchen van de cijfers geeft ons dit:

Compound-systeem, meer als een echte fotografielens. Het focusseerelement [s] verplaatst een klein deel in vergelijking met de afstand van het onderwerp.

De wiskunde is misschien niet onberispelijk, maar het is goed genoeg om het duidelijk te maken! Dus als het onderwerp beweegt, moet de correctielens verschuiven om te compenseren omdat het beeldvlak is gefixeerd.

In AF-systemen berekent de elektronica waar de lens naartoe moet en instrueert de lensmotor om hem daar naartoe te brengen. Hoe doet het dit? Dit brengt ons bij detectiesystemen.

Fasedetectie

De kleine lenzen in de onderkant van de spiegelkast richten het licht van tegenovergestelde zijden van de lens. Vanwege de opening tussen deze twee punten wordt een parallax gemaakt waarbij iedereen een iets andere kijk op het onderwerp ziet, net als de twee invoerlenzen in een meetzoekercamera.

De afzonderlijke punten zijn scherpgesteld, net als in een afstandsmeter; het is de oneindige combinatie van punten in het tweedimensionale beeldveld die de focuswaas in een werkelijk beeld creëert. Dit is de reden waarom grote openingen meer vervaging veroorzaken; niet door een soort van optische manipulatie, maar eenvoudig omdat meer van de diameter van het glas wordt gebruikt, waardoor meer punten worden gecreëerd om te overlappen en onscherpte te creëren. Stel je AF voor om een ​​f / 22 of kleiner diafragma aan elke kant van de lens te gebruiken, zodat het beeld scherp blijft, ongeacht de brandpuntsafstand van de lens.


Een vereenvoudigde look, zonder veel van de extra lenzen en het focusseerscherm.

Terwijl het licht van tegenovergestelde kanten van de lens komt, is het gesplitste beeld dat naar de AF-sensoren gaat hetzelfde deel van het onderwerp, waarbij de AF-punten in de zoeker zijn.


Vereenvoudigd zicht, zonder alle extra lenzen, van in de spiegelbox van een spiegelreflexcamera, van voren en van achteren.

De CCD-strips worden uitgelezen en verzonden naar een speciale AF-chip, die een vergelijking tussen de twee maakt. Hoewel individuele fabrikanten, verbeterde technologie, vermijding van octrooi-inbreuken en verschillende prijspunten van apparatuur waarschijnlijk het exacte gebruikte algoritme veranderen, is het algemene punt hier om een ​​wiskundige functie uit te voeren, een autocorrelatie of iets dergelijks.


Het kennen van de diameter van de lens (vandaar f / 2.8 AF-punten die nauwkeuriger zijn, niet meer licht, maar meer breedte) maakt triangulatie mogelijk.

Autocorrelatie is een algoritme voor patroonaanpassing onder de paraplu van kruiscorrelatie in signaalverwerking, maar in plaats van twee verschillende signalen te vergelijken, vergelijkt het een signaal met een verschoven versie van zichzelf. In wezen is het een integraal (of meer waarschijnlijk in dit geval van discrete waarde sets, sommatie) functie die het gebied onder de gesuperponeerde signaalgrafieken berekent, vergelijkt en maximaliseert.

Het doel is om te berekenen hoe ver het is om een ​​van de signalen te verschuiven om dat gebied te maximaliseren en zo de twee weergaven te evenaren. De betrokken wiskunde is erg langdradig (het zou waarschijnlijk meerdere artikelen kosten om een ​​basisvoorbeeld te doorlopen), maar het resultaat van het algehele uiteindelijke algoritme zou tussen 1 en -1 moeten vallen, waarbij de camera op zoek moet naar de verschuivingswaarde waar de correlatie is waarde is zo dicht mogelijk bij 1.

Door dit te doen, ziet en begrijpt het dezelfde functie van elke kant van de lens, en weet de fysieke ruimtelijke verschuiving tussen hen langs de pixelstrook, met trigonometrie op basis van bekende camera-afmetingen, hoe ver en in welke richting de lens is onscherp. Vervolgens kan het een scherpstellingssignaal naar de lens sturen en de focus na de beweging controleren. Dat is wanneer uw camera focusvergrendeling aangeeft en de opname kan worden gemaakt.


Vergelijkbaar met de 3D-weergave hierboven, die de beweging van de lichtpaden toont wanneer de focus verandert.

U hebt mogelijk gehoord van punt- of punttype AF-punten versus AF-punten van het "kruis" -type. Het verschil tussen deze punten is dat punten van het punttype enkele, eendimensionale stroken van pixels zijn, terwijl kruistype-punten twee lijnen zijn die loodrecht zijn gerangschikt. Omdat een AF-sensor eendimensionaal is, kan hij de luminantie alleen langs de lengte veranderen. Dot-type sensoren zijn dus slechts in één richting gevoelig voor detail, terwijl cross-types over twee dimensies kunnen zien.

Als een puntvormige sensor parallel loopt met een belangrijk detailkenmerk, kan hij het verschil niet zien tussen de sensor en de aangrenzende contrasterende functie en heeft hij dus aanzienlijke moeite met scherpstellen.


Hetzelfde patroon, andere hoek van sensoren. Het is duidelijk dat de kruissoorten altijd een patroon kunnen zien, ongeacht hun oriëntatie.

Contrastdetectie

Deze methode leest enkele pixels af op de gewenste focuspositie van de beeldsensor. De processor berekent de contrastwaarde tussen deze pixels, het verschil in luminantie over de pixelruimte die wordt gemeten. Door de helling van de curve langs de pixellijnen en kolommen te berekenen, kan deze de waarde van deze gradiënt maximaliseren.


Het berekenen van de gradiënten van de verbindingslijnen geeft het verschil in luminantie per eenheid afstand (of pixel), in wezen een maat voor contrast.

De focus van de lens wordt vervolgens fractioneel verplaatst en het contrast wordt opnieuw berekend. Als het contrast lager is, heeft het systeem de lens in de verkeerde richting verplaatst, dus wordt het in de tegenovergestelde richting verplaatst. Het contrast wordt opnieuw gemeten, de lens wordt verder verplaatst en dit proces herhaalt zich naarmate de contrastwaarde stijgt totdat deze daalt. Wanneer het valt, is de lens te ver gegaan en verplaatst het algoritme de lens weer naar achteren, waardoor verdere micro-aanpassingen worden gemaakt.


Ik heb dit gedeelte van een echte foto in Photoshop vervaagd, waarbij ik de iteratieve lusberekeningen van contrastdetectie heb gesimuleerd.

De contrastdetectiemethode van AF heeft de potentie om uiterst nauwkeurig te zijn, omdat deze op sensorniveau is, geen afzonderlijk systeem. Het verplaatst gewoon de lens totdat het contrast is gemaximaliseerd. Helaas om dezelfde reden lijkt het onwaarschijnlijk dat dit snel zal zijn; je zou kunnen beweren dat het alleen een meting op twee focusposities zou vereisen om te weten hoeveel de lens onscherp is, maar dat vereist dat de camera precies weet hoe contrastrijk het onderwerp is om te beginnen met.

Het heeft geen manier om te weten wat de "ware" verdeling van luminantiewaarden is die gemeten zullen worden, omdat ze afhankelijk zijn van het onderwerp. Dit is de reden waarom er ook geen "drempelwaarde" of "ideale piekwaarde voor luma" kan zijn. Deze dingen variëren sterk van scène tot scène.


Verschillende onderwerpen, verschillende tijdstippen van de dag, verschillende belichtingen hebben allemaal invloed op de absolute contrastniveaus.

Dus voor de nabije toekomst zal professioneel filmmaken handmatige focustrekkers blijven gebruiken zoals altijd, en spiegelloze point-en-shoots zullen traag blijven. Tenzij…

Hybride systemen

Wat als je het beste van beide werelden kon krijgen? Wat als je de snelheid van fase kon detecteren en de jacht kon elimineren, maar dat combineren met de nauwkeurigheid en eenvoud van contrastdetectie? Welnu, dat is precies wat fabrikanten nu doen.

In plaats van de fasedetectiestroken op de bodem van een spiegelkast te leggen, wat nutteloos is in spiegelloze camera's en DSLR's in livebeeld, worden ze in plaats daarvan gemaakt als speciale arrays op de beeldsensor zelf. Maar er is toch zeker geen fasematch op de sensor, omdat het wordt gestraald door al het licht van de rest van de lens in een grote wazige cirkel van verwarring, zoals ik al eerder zei? Niet zo snel!

Omdat de pixels (technisch "detecteert", omdat ze sensorelementen zijn en geen beeldelementen) op een beeldsensor zijn bedekt met microlenzen voor een betere lichtverzameling, hoeven we slechts de helft van de pixel te blokkeren om de afbeelding te krijgen vanaf één kant van de lens. Is dit ideaal? Nee, het beeld zal nog steeds wazig zijn, maar half zo wazig als het is wanneer we de volledige lens bekijken, en nu kunnen we het gebruiken om de focus nauwkeuriger te detecteren, omdat er een parallax zal zijn tussen de twee afbeeldingen.


De groene foto's worden gebruikt omdat er twee keer zoveel zijn in de Bayer-array, de halfverlichting kan gemakkelijker worden gecorrigeerd zonder te veel ruis.

In de Fuji X100s wordt deze technologie gebruikt voor het verbeteren van de handmatige scherpstelling van visuele hulpmiddelen met een split-prisma-achtige EVF-overlay, maar Sony gebruikt het als een echt hybride systeem in combinatie met contrastdetectie AF als "Fast Hybrid AF" in hun hogere klasse -END NEX-camera's. Canon en Nikon gebruiken dit concept ook in hun lagere camera's. In de A99 van Sony profiteert een tweede speciale fasedetectiereeks van de doorschijnende spiegel door deze direct voor de beeldsensor te leggen, ook wel Dual AF genoemd.


Het is enigszins moeilijk te zeggen in dit diagram, maar het onscherpe beeld is zowel links-rechts verschoven als tegelijkertijd vervaagd.

Dus fasendetectie op de sensor met weinig licht staat niet te veel in de weg, het is meestal beperkt tot een middelpunt om het aantal uit beeldverwerkingsdoeleinden genomen pixels te verminderen, en de techologie staat nog in de kinderschoenen. Maar met meer toegewijde systemen zoals Sony's Dual AF-arrays, en misschien enkele "opgeofferde" beeldsensorpixels (met behulp van software-interpolatie) met meer directionele microlenzen, lijkt dit de toekomst van autofocus.


Conclusie

Dus we zijn gekomen door de uitvinding van autofocus, door zijn ontwikkeling en wijdverspreide acceptatie. We hebben gekeken naar de fundamentele optische mechanica van focus. We weten welke soorten AF er zijn, waar ze zich in de camera bevinden, en hoe ze werken, evenals hoe deze kenmerken praktisch de prestaties van de camera beïnvloeden. We hebben de recente ontwikkelingen in hybride autofocussystemen bekeken en bekeken waar ze vanaf hier verder kunnen gaan.

Houd bij het gebruik van AF rekening met hoe de camera de scène ziet en dienovereenkomstig bij te stellen. Kijk bij het winkelen voor camera's goed naar hun AF-systemen en hoe goed ze kunnen werken voor uw manier van fotograferen.

Wel, dat is een omslag in dit technische overzicht van autofocus. Vragen? Opmerkingen? Sla de reacties hieronder op!