Photo

@import((rwml-menu))

Der Crop-Faktor und optische Äquivalenz
oder
Wie ich mit Kameras unterschiedlicher Sensorgröße genau die gleichen Bilder mache

[Mit umfangreichen Updates vom 05.03.2017, 18.03.2017 und 22.03.2017]

<<< DOWNLOAD einer EXCEL Datei mit allen Berechnungen >>>

In der Fotografie findet man Kameras ganz unterschiedlicher Sensorgröße. Als Standard hat sich der 35 mm Vollformatsensor etabliert, also 36 x 24 mm^2. Hierauf die anderen Sensorgrößen üblicherweise bezogen, um eine gemeinsame Vergleichsbasis zu erhalten.
Weit oberhalb des Vollformats gibt es die beiden Mittelformate 60 x 60 mm^2 und 90 x 60 mm^2, welche heute aber nicht in Digitalkameras angeboten werden.
Etwas oberhalb des Vollformats liegen die digitalen „Mittelformatkameras“ von Hasselblad, Leica und Fuji, die mit einer Sensorgröße von rund 45 x 30 mm wohl besser „Vollformat-Plus“ genannt werden müssten.
Unterhalb des Vollformats hat sich APS-C etabliert (etwa 23,6 x 15,6 mm^2), dann kommt Four Thirds (etwa 17,3 x 13 mm^2), dann 1 Zoll (etwa 13,2 x 8,8 mm^2) und schließlich die Smartphones mit rund 4,9 x 3,7 mm^2 Chipfläche. Alles in allem eine ziemliche Vielfalt.

Crop factor and optical equivalence
or
How to take similar pictures with different camera sensors

[With numerous updates of 2017-03-05, 2017-03-18 and 2017-03-22]

<<< DOWNLOAD an EXCEL file with all calculations >>>

Modern photo camera sensors come in many different sensor sizes. The 35 mm full-frame sensor is the established reference with a sensor size of 36 x 24 mm^2. Other sensor sizes are usually compared to full-frame to obtain a common point of reference.
There are two true medium formats (60 x 60 mm^2 and 90 x 60 mm^2), which are much bigger than full-frame. But digital cameras with such sensors are not available.
The largest sensors in digital photo cameras come from Hasselblad, Leica and Fuji. They call themselves „medium format“ but use a much smaller sensor of about 45 x 30 mm^2, which is actually much closer to full-frame than to medium-format. It would be more honest to call this „full-frame-plus format“.
The APS-C standard (about 23.6 x 15.6 mm^2) has been established right under the full-frame format, then comes FourThirds (about 17.3 x 13 mm^2), then 1 inch (about 13.2 x 8, 8 mm^2) and finally smartphones with approximately 4.9 x 3.7 mm^2 sensor sizes. All in all, there is quite a variety of different formats.

Stacks Image 46177
Bild: Gebräuchliche Sensoren und ihre Crop-Faktoren (gerundet). Von links nach rechts sind die Sensoren etwa so angeordnet, wie die Zunahme an Bildauflösung vom Auge empfunden wird (Wurzel der Sensorfläche).
Figure: Common sensors and their crop factors (rounded). The sensors are ordered from left to right according to the visually perceived increase in resolution (the square root of the sensor area).
Den ambitionierten Fotografen interessiert es natürlich, welche Einstellungen er an seiner Kamera und seinem Objektiv wählen soll, um Bildergebnisse zu erzielen, die mit anderen Kameras mit anderen Sensorgrößen vergleichbar sind.
„Vergleichbar“ meint in diesem Zusammengang
(1) den gleichen Bildwinkel (Blickwinkel) und die gleiche Perspektive,
(2) die gleiche Belichtung des Sensors (gleiche Helligkeit pro Pixel),
(3) die gleiche Beugungsunschärfe, sowie
(4) die gleiche Schärfentiefe.

Hier kommt nun der Crop-Faktor ins Spiel. Kurz gesagt gibt der Crop-Faktor das Verhältnis der Bilddiagonalen vom Kamerasensor zum Referenzsensor (Vollformat) an.

Ein Beispiel:
Von APS-C (Diagonale = Wurzel(23,6^2+15,6^2) = 28,3 mm) zu Vollformat (Diagonale = Wurzel(36^2+24^2) = 43,3 mm) beträgt der Crop-Faktor 43,3 / 28,3 = 1,53.
Die Rechnung passt nicht mehr ganz, wenn das Verhältnis von Bildhöhe zu Bildbreite zwischen den Sensoren abweicht, was bei den Smartphones der Fall ist. Aber groß sind die Unterschiede in der Praxis nicht.

Bei allen Vergleichen ist natürlich vorausgesetzt, dass die Belichtungszeit gleich ist.
Ambitious photographers are interested in the camera and lens settings required to thoroughly compare images taken with cameras of different sensor sizes.
"Comparable" in this context means that the images taken with both cameras and lenses will have
(1) the same field of view and the same perspective,
(2) the same light per pixel,
(3) the same diffraction blur, and finally
(4) the same depth of field.

Here, the crop factor comes into play. In short, the crop factor is the ratio of the diagonals of the camera sensor and the full-frame reference sensor.

For example, APS-C (diagonal = square-root(23.6 ^ 2 + 15.6 ^ 2) = 28.3 mm) has a crop factor compared to full-frame (diagonal = square-root (36 ^ 2 + 24 ^ 2) = 43.3 mm) of 43.3 / 28.3 = 1.53.
The calculation is not entirely correct when the image ratio (height / width) differs between sensors, which is the case with smartphones. But in practice the differences are not significant.

All of the following comparisons assume identical shutter speed of all cameras.
Mit dem Crop-Faktor kann man alle Bildparameter ganz einfach umrechnen.
Hier vorab das Endresultat der nachfolgenden Überlegungen: Um vom tatsächlichen Kamerasensor auf die Einstellungen des Referenzsensors (Vollformat) umzurechnen, wird
• die Anzahl der Megapixel gleich gehalten,
• die Belichtungszeit gleich gehalten,
• die Brennweite mit dem Crop-Faktor multipliziert,
• die Blendenzahl mit dem Crop-Faktor multipliziert,
• die ISO-Zahl mit dem Quadrat des Crop-Faktors multipliziert.
The crop factor allows a simple translation of all image parameters to gain optical equivalence.
Upfront I will already give you the final result of the following considerations: In oder to get the same pictures on a full-frame reference camera and lens, one must convert the quantities of the actual camera and lens in the following way:
• keep the number of megapixels the same,
• keep shutter speed the same,
• multiply focal length with the crop factor,
• multiply the f-stop number (aperture) with the crop factor,
• multiply the ISO number with the square of the crop factor.
APS-CVollformat
24 Megapixel24 Megapixel
52 mm Brennweite80 mm Brennweite
1/250 s1/250 s
f/1,2f/1,8
ISO 200ISO 470
Ein Foto mit einer APS-C Kamera mit Cropfaktor 1,53 sieht bei diesen Einstellungen genau gleich aus wie ein Foto mit einer 24 MPixel Vollformatkamera.
Bildwinkel, Belichtung (Helligkeit), Schärfentiefe und Bewegungsunschärfe sind bei beiden Aufnahmen identisch.
APS-CFull-Frame
24 Megapixel24 Megapixel
52 mm Focal Length80 mm Focal Length
1/250 s1/250 s
f/1.2f/1.8
ISO 200ISO 470
A photo taken with an APS-C camera with crop-factor 1.53 at these settings looks exactly the same as a photo taken with a 24 megapixel full-frame camera.
Field of view, exposure (brightness), depth of field and motion blur are identical in both shots.
VollformatAPS-C
16 Megapixel16 Megapixel
50 mm Brennweite33 mm Brennweite
1/500 s1/500 s
f/4f/2,6
ISO 800ISO 340
Andersherum geht das natürlich auch.
Full-FrameAPS-C
16 Megapixel16 Megapixel
50 mm Focal Length33 mm Focal Length
1/500 s1/500 s
f/4f/2.6
ISO 800ISO 340
The calculation can also be reversed.

Bildwinkel

Die Umrechnung des Bildwinkels folgt ganz einfach aus der Definition des Abbildungsmaßstabs:

ß = y’ / y = f’ / z

Darin ist
y’ die Bildhöhe (Sensorgröße), y die Objekthöhe, f’ die Brennweite und z der Objektabstand.
Wenn wir mit einer anderen Sensorgröße
y’ ein Objekt gleicher Größe y im gleichen Abstand z aufnehmen wollen, dann muss sich die Brennweite f’ offensichtlich proportional zur Sensorgröße y’ ändern. Auch der Abbildungsmaßstab ß ändert sich dementsprechend.

Als Sensorgröße nimmt man sinnvollerweise die Diagonale, also Wurzel(
SH^2+SB^2) mit SH = Sensorhöhe und SB = Sensorbreite.
Das Verhältnis der Diagonalen zweier Sensoren wird als Cropfaktor (
CF) bezeichnet. Also folgt aus dieser einfachen Gleichung, dass Brennweite und Abbildungsmaßstab mit dem Cropfaktor umzurechnen sind, um gleichen Bildwinkel zu erhalten.

Field of View

The conversion of the field of view (image angle) can be derived from the definition of the reproduction scale:

ß = y’ / y = f’ / z

y’ is the image size (sensor size), y is the object size, f’ is the focal length and z is the object distance.
If we take a picture of an object of the same size
y at the same distance z with a different sensor y’, then the focal length f’ has to change in proportion of the sensor size y’. The reproduction scale ß changes accordingly.

Typically, the diagonal, ie, square-root(
SH^2+SW^2) with SH = sensor height and SW = sensor width, is used as the sensor size.
The ratio of the diagonals of two sensors is referred to as the crop factor (
CF). Hence focal length and reproduction scale are to be converted with the crop factor to obtain the same field of view.

Perspektive

Perspektive meint, kurz gesagt, das Größenverhältnis von nahen zu fernen Objekten. Die Perspektive eines Teleobjektivs ist flach, d.h. Objekte in unterschiedlichem Abstand zur Kamera erscheinen annähernd gleich groß. Die Perspektive eines Weitwinkelobjektivs ist hingegen groß: Kameranahe Objekte erscheinen riesig im Vergleich zu Objekten in großem Abstand.

Eine natürlich wirkende Perspektive ergibt sich, wenn die Kamera einen Bildwinkel hat, der etwa der Sichtweite unseres Auges entspricht. Das ist beispielsweise bei Vollformat bei einer Brennweite von knapp 50 mm der Fall.

Deshalb verwendet man bei Portraitaufnahmen auch keine Weitwinkelobjektive: Die Gesichtszüge würden unnatürlich wirken. Die Nase wäre zu groß, die Ohren zu klein.

Die Perspektive eines Objektivs ergibt sich rein aus dem Bildwinkel. Wenn der Bildwinkel zweier Objektive gleich ist, dann haben die Bilder auch die gleiche Perspektive (wenn sie vom gleichen Kamerastandpunkt aus fotografiert wurden). Durch die im vorigen Abschnitt beschriebene Umrechnung der Brennweite auf gleichen Bildwinkel wird also auch die Perspektive der beiden Kamerasysteme identisch.

Diesen Effekt kann man sich umgekehrt zu Nutze machen, um aus einem Weitwinkelobjektiv ein Teleobjektiv zu zaubern: Wenn man zum Beispiel in Photoshop oder Lightroom nur den mittleren Teil des Bildes ausschneidet und vergrößert, dann erhält man genau dasselbe Foto, als hätte man ein Objektiv mit längerer Brennweite genutzt. Einige Kameras, z.B. Leica Q oder Fuji X100, bieten diese Funktion bereits kameraintern an. Auch der in vielen Videokameras verfügbare digitale Zoom arbeitet so.
Offensichtlicher Nachteil des Verfahrens ist der Verlust an Auflösung, denn schließlich werden die äußeren Pixel verworfen und die inneren Pixel aufgezoomt.
Ein weitere Haken ist der Verlust an Lichtstärke. Wenn man beispielsweise ein Foto der Leica Q (28 mm Brennweite, f/1,7) beschneidet, so dass der Bildwinkel einem 50 mm Objektiv entspricht, dann sind Blende und Schärfentiefe nur noch entsprechend f/3. Diese Zusammenhänge werden weiter unten genauer erläutert.

Perspective

Perspective, in short, means the ratio of the size of close to far objects. The perspective of a telephoto lens is flat, i.e., objects at different distances from the camera appear to be approximately the same size. The perspective of a wide-angle lenses, on the other hand, is large: close objects appear huge compared to objects at a great distance.

A natural-looking perspective is obtained when the camera has a field of view that corresponds approximately to the range of vision of our eye. This is more or less the case with a 50 mm full frame lens.
 
For this reason, we do not use wide-angle lenses for portrait shooting: the facial features would look unnatural. The nose would be too big, the ears too small.

The perspective of a lens results purely from the field of view. If the field of view of two cameras is the same, images with these cameras have the same perspective (provided they were photographed from the same camera position). Thus the same perspective will be obtained when focal length and field of view are converted as described in the previous paragraph.

This effect can be used to turn a wide-angle lens into a telephoto lens. For example, if you cut and enlarge the central part of an image in Photoshop or Lightroom, you will get exactly the same photo as if you had used a lens of longer focal length. Some cameras, e.g. Leica Q or Fuji X100, already provide this function in camera. The digital zoom that is available in many video cameras also works like this.
An obvious disadvantage is the loss of resolution, because the outer pixels are discarded and the inner pixels are zoomed up. Another caveat is the loss of brightness. For example, when we crop an image taken with the Leica Q (28 mm focal length at f/1.7) so that the field of view equals an image taken with a 50 mm lens, then aperture and depth of field will only be according to f/3. These calculations are explained further down.

Vignettierung

Als Vignettierung bezeichnet man den Abfall der Helligkeit vom Zentrum zum Rand des Bildes hin. Vignettierung tritt immer auf, auch bei perfekten Objektiven und bei Aufnahme von vollkommen gleichmäßig beleuchteten Flächen. Man unterscheidet zwischen natürlicher und künstlicher Vignettierung.

Die natürliche Vignettierung ist geometrisch bedingt. Die effektive Beleuchtungsstärke eines Lichtstrahls, der unter einem beliebigen Winkel
w zwischen 0 und dem Bildwinkel wmax einfällt, lässt sich aus der Beleuchtungsstärke eines zentrischen Strahls E0 berechnen:

Ew = E0 x cos(w)^4

Durch die zuvor beschriebene Umrechnung der Brennweite wird der Bildwinkel
wmax der beiden Objektive gleich. Daher ist auch ihre natürliche Vignettierung vergleichbar.

Künstliche Vignettierung ergibt sich aus dem Beschnitt von schräg einfallenden Lichtbündeln durch die Fassungen der Linsen innerhalb des Objektivs. Sie ist durch die Objektivkonstruktion gegeben und kann daher nicht umgerechnet werden.

Vignetting

Vignetting is the drop of brightness from the center to the edges of the image. Vignetting is present in all lens systems, even the most perfect ones. There is a difference between natural and artifical vignetting.

Natural vignetting is caused by geometry. The effective brightness of a light beam that falls onto the lens at any angle
w between 0 and the field of view wmax can be calculated from the brightness of a central beam E0:

Ew = E0 x cos(w)^4

Due to the previously described conversion of the focal length, the field of view
wmax of the two camera systems will be identical. Therefore, their natural vignetting is also comparable.

Artificial vignetting results from shading of light by the components of the lens mount. It is a feature of the construction of the lens. Therefore, artificial vignetting can not be converted between two lenses.

Noise-Level-Indicator (NLI)

Das Bildrauschen eines Sensors resultiert aus zwei hauptsächlichen Ursachen: Quantisierungsrauschen und thermisches Rauschen.

Quantisierungsrauschen entsteht, wenn bei sehr dunklen Szenen nur noch einzelne Lichtquanten (Photonen) von jedem Pixel aufgenommen werden können. Da sich die Anzahl der Photonen je Pixel immer nur um 1 unterscheiden kann, entstehen „Sprünge“ in der Anzahl der gemessenen Photonen benachbarter Pixel, die man als Rauschen sieht.

Thermisches Rauschen resultiert aus dem Rauschen der elektronischen Bauelemente bei der Signalverstärkung und aus der Analog/Digital-Wandlung.

Beide Größen sind offensichtlich abhängig von der Lichtmenge, die von jedem einzelnen Pixel empfangen wird. Will man also zwei Kamerasysteme so aufbauen, dass das Bildrauschen vergleichbar ist, dann muss man dafür sorgen, dass jeder Pixel die gleiche Lichtmenge erhält.

Natürlich spielt auch die Qualität der Signalverarbeitung auf dem Sensorchip eine wesentliche Rolle beim Rauschverhalten. Nach jahrzehntelanger Entwicklung haben sich die diversen Hersteller immer mehr an die Grenze des physikalisch Möglichen angenähert. Bei modernen Sensoren sind die Unterschiede im Rauschverhalten daher überraschend gering, wie ein umfangreicher Vergleich gezeigt hat (
Tony Northrup Video auf YouTube). Somit kann zur Beurteilung des Rauschens tatsächlich die pro Pixel empfangene Lichtmenge herangezogen werden – zumindest für die modernen Kameragenerationen.

Und wie wird die Lichtmenge pro Pixel berechnet? Eine einfache Überlegung, die allerdings nur bei Objektiven mit gleichem Bildwinkel funktioniert, ist die folgende:

Die effektive Öffnung (Eintrittspupille) eines Objektivs
D ist der kleinste Durchmesser, durch den das Licht fällt. Man kann ihre Größe gut sehen, wenn man das Objektiv von der Kamera abnimmt und hindurchschaut. Die Eintrittspupille D, die Brennweite f’ und die Blendenzahl k sind über folgende Gleichung miteinander verknüpft: D = f’ / k.

Wenn wir also zwei Objektive betrachten, deren Brennweite und Blendenzahl beide über den Crop-Faktor umgerechnet sind, also zum Beispiel 50 mm f/4 und 33 mm f/2.6, dann ist die effektive Öffnung gleich. In diesem Beispiel haben beide Objektive eine Öffnung von rund 12,6 mm.
Somit ist auch die gesamte Lichtmenge (die Anzahl der Photonen) identisch, welche durch beide Objektive eingesammelt wird, und damit auch die Lichtmenge, welche auf die jeweilige Sensoroberfläche fällt. Unter der Voraussetzung, dass beide Sensoren gleich viele Pixel haben, ist somit auch die Lichtmenge pro Pixel und damit das Rauschverhalten etwa gleich. Selbst der Dynamikumfang wird ähnlich sein, wenngleich dafür noch eine Reihe weitere technischer Faktoren ausschlaggebend sind.
Wie gesagt, diese vereinfachte Überlegung gilt nur, wenn die Bildwinkel gleich sind, wenn also die Brennweiten umgerechnet wurden.

Abhängig von der Anzahl der internen Elemente kann ein Objektiv das Licht stärker abschatten als ein anderes. Dies wird durch die Angabe der sogenannten „T-stop“ Zahl beschrieben, die immer etwas größer als die Blendenzahl („f-stop“) ist. Der Effekt ist jedoch eher geringfügig.

Für einen direkten Vergleich unterschiedlicher Kamerasysteme schlage ich den Noise-Level-Indicator (NLI) vor.

Der NLI ist eine Vergleichszahl, welche die Belichtung in Blendenstufen (EV) relativ zu einem Referenzsystem (Sensor, Objektiv) angibt. Wenn der NLI einer Kamera um 1 kleiner ist als der einer anderen, also z.B. -3 auf -4, so bedeutet dies halbe Lichtmenge pro Pixel und damit halb so viel Rauschen (bei gleicher Sensortechnologie). Ein NLI, der um 2 höher ist, also zum Beispiel -8 auf -6, bedeutet vierfach mehr Licht pro Pixel und entsprechend weniger Rauschen.

Für die Berechnung des NLI nutzen wir folgende, universell gültige Gleichung:

EF = LF x pi / (4 x k^2) x 1 / (1 - ß / ßp)^2

Darin ist
EF die Leuchtdichte auf der Sensoroberfläche, LF die Leuchtdichte der Szene, k die Blendenzahl, ß der Abbildungsmaßstab und ßp der Pupillenabbildungsmaßstab, den wir zur Vereinfachung gleich 1 setzten können.

Die Lichtmenge pro Pixel ergibt sich dann einfach aus:

EFP = EF x SH x SB / MP

mit
SH = Sensorhöhe, SB = Sensorbreite und MP = Anzahl der Megapixel.

Wir sind nicht an einem absoluten Wert von
EFP interessiert, sondern nur an Verhältnissen. Daher können wir die Vorfaktoren weglassen und LF = 1 setzen.
Außerdem gehen wir davon aus, dass die Sensorgröße
SH klein gegenüber der Bildgröße y ist, wodurch der Abbildungsmaßstab ß gegen Null geht.
Darüber hinaus ist es sinnvoll, eine Bezugsgröße einzuführen. Dazu schlage ich einen Vollformat Sensor mit 24 MP und einem Objektiv mit f/1,0 vor.

Damit erhält man folgende Bestimmungsgleichung für den Noise-Performance-Indicator (NPI):

NLI = LOG(1 /
k^2 x SH x SB / MP ; 2) - LOG(36 ; 2)

Die Logarithmen mit Basis 2 sorgen dafür, die relativen Faktoren der Lichtmenge in Belichtungswerte (EV) umzurechnen. LOG(36;2) ist die Referenz (aus der EFP Gleichung mit SH = 36, SB = 24 und MP = 24).
Achtung: Der NLI gilt nicht bei Makrofotografie. Ab einer Bildfeldhöhe von 1-2 Metern kommen die Näherungen aber sehr gut hin.

Nun kann man den Noise-Level-Indicator verwenden, um ganz unterschiedliche Kamerasysteme hinsichtlich ihres Rauschverhaltens (genauer: Hinsichtlich der Lichtmenge pro Pixel) zu vergleichen, was ich beispielhaft in folgender Tabelle einmal gemacht habe:

Noise-Level-Indicator (NLI)

Image noise of a sensor results from two main causes: quantization noise (also called shot noise) and thermal noise (also called electronic noise).

Quantization noise is generated when, in very dark scenes, individual light quanta (photons) are recorded in each pixel. Since the number of photons per pixel can only differ by one, "jumps" occur in the number of measured photons of adjacent pixels, which are seen as noise.

Thermal noise results from the noise of the electronic components during signal amplification and analog-to-digital conversion.

Both noise sources are obviously dependent on the amount of light received by each pixel. If one wants to get equivalent noise behaviour between two cameras, then the pixels of the cameras must receive the same amount of light.

Of course, the performance of the signal processing on the chip also plays an important role in the noise behavior. After decades of development, however, the various manufacturers have more and more approached the limits of physics. With modern sensors, the differences in noise behavior are surprisingly low, as a comprehensive comparison has shown (
Tony Northrup video on YouTube).
Thus, to judge the noise, the amount of light received per pixel can actually be used - at least for modern cameras.

So how do we calculate the light quantity per pixel? A simple consideration, which however only works with lenses with the same angle of view, is the following:

The effective aperture (entrance pupil) of a lens
D, which is usually the diameter of the front element, the focal length f’ and the f-stop number k are linked by the following equation: D = f’ / k.

If we compare two lenses whose focal length and f-stop number are both converted by the crop factor, for example 50 mm f/4 and 33 mm f/2.6, the effective aperture D is the same. In this example, both lenses have an opening of about 12.6 mm.
If one now assumes that both sensors have the same number of pixels, then the amount of light per pixel and thus the noise behavior are approximately the same. Therefore, the total light quantity (the number of photons), which is collected by both lenses, and thus the quantity of light that falls on the total sensor surfaces are also identical. Even dynamic range will be similar, although a number of other technical factors are decisive in this regard as well.

Depending on the number of internal elements, one lens could shade the light slightly more than the other. Is is expressed in the „T-stop“ number, which is always slightly larger than the f-stop number. However, this is usually a minor effect.

For a direct comparison of different camera systems, I propose to use the noise level indicator (NLI).

The NLI is a comparative number which gives the exposure value (EV) in proportion to a reference sensor and lens. When the NLI of one camera system is lower by one step than the NLI of another system, say -3 to -4, the amount of light per pixel is halved. Noise performance reduces accordingly (provided the sensor technology is the same). An NLI that is higher by two steps, for example from -8 to -6, means four times more light per pixel.

The following general equations can be used to calculate the NLI:

EF = LF x pi / (4 x k^2) x 1 / (1 - ß / ßp)^2

Where
EF is the luminance on the sensor surface, LF is the luminance of the scene, k is the aperture number, β is the reproduction scale, and βp is the pupil reproduction scale, which can be set equal to 1 as a good approximation.

The amount of light per pixel then simply results from:

EFP = EF x SH x SW / MP

With
SH = sensor height, SW = sensor width and MP = number of megapixels.

We are not interested in an absolute value of EFP, but only in relative numbers. Therefore, we can omit the prefactors and also set
LF = 1.
Furthermore, we assume that the sensor size
SH is small compared to the object size y, which lets the reproduction scale β approach zero.
I suggest not to use this factor, but rather a relative value in EV. The reference should be a full format sensor with 24 MP and f/1.0 aperture.

This results in the following equation for the determination of the noise performance indicator (NPI):

NLI = LOG(1 /
k^2 x SH x SB / MP ; 2) - LOG(36 ; 2)

The logarithms with base 2 convert the relative factors into exposure values (EV). LOG(36;2) is simply the resulting EFP for the reference (full frame sensor with SH = 24, SW = 36, MP = 12).
Caution: The NLI does not apply to macro photography. Starting with an image size of 1-2 meters, however, the approximations are very good.

We can now use the Noise-Level-Indicator to compare different camera systems with regard to their noise behavior (more precisely: with regard to the amount of light per pixel) as in the following table:

Stacks Image 106081
Ein Beispiel zum Lesen der Tabelle: Die Pixel der Fuji X100F (NLI = -3,2) erhalten bei Offenblende f/2,0 um 3,2 Blendenstufen weniger Licht als das Referenzsystem (Vollformat Sensor mit 24 MP und Blende f/1,0). Das iPhone 6 (NLI = -6,2) empfängt pro Pixel bereits 6,2 Blendenstufen weniger Licht. Die Differenz zwischen den beiden ist somit 3 Blendenstufen, was auch ungefähr dem zu erwartenden Unterschied im Rauschen entspricht.

Auffallend, aber nicht wirklich überraschend, ist das schlechte Abschneiden der Smartphones und der 4K Videokamera Sony FDR-AX53 mit ihren winzigen Sensoren.
Nur einmal zum Vergleich: Die Tele-Kamera des iPhone 7 Plus empfängt pro Pixel 8,1 - 2,2 = 5,9 Blendenstufen (EV) weniger Licht als die Fujifilm X-Pro2 mit dem XF56/f1.2 Portrait-Objektiv!
Man lasse sich also nicht von den kleinen Blendenzahlen der Mini-Sensoren in die Irre führen. Die Blendenzahl ist immer mit der Brennweite gekoppelt und die hängt wiederum an der Sensorgröße. Blende f/2 ist bei der Vollformatkamera ziemlich groß, an einem Smartphone jedoch winzig. Entsprechend wenig Licht kommt dann hindurch und entsprechend stark ist das Rauschen!

Das eher mittelmäßige Abschneiden der Kein-Mittelformat Kamera Fuji GFX50S mag verwundern. Es liegt hauptsächlich an den bisher verfügbaren Objektiven, die nicht besonders lichtstark sind. Die Sensorgröße scheint beeindruckend, aber wenn das Objektiv nur mit einer äquivalenten Blende von f/2,2 daherkommt, dann hat die Kamera beim Rauschverhalten keine Chance gegen die Platzhirsche mit lichtstarker Optik. Einen außergewöhnlich detaillierten Artikel dazu hat
DPReview verfasst. Darin wird auch auf die Auswirkungen der unterschiedlichen Sensortechnologien eingegangen.

Die Sensorabmessungen dieser Tabelle sind übrigens aus dem Crop-Faktor errechnet, der wiederum aus den Brennweitenangaben der Hersteller stammt. Sie entsprechen daher der effektiv wirksamen Sensorfläche. Die tatsächliche Sensorfläche kann größer sein, z.B. um einen Rand für eine elektronische Bildstabilisierung zu haben. Für das Rauschverhalten sind diese Ränder irrelevant.
For example: At full open aperture f/2.0, each pixel of the Fuji X100F (NLI = -3,2) receives 3,2 EV less light than the reference system (full frame sensor with 24 MP and aperture f/1.0). The iPhone 6 (NLI = -6,2) receives 6,2 EV less light per pixel at its full aperture. Hence, the difference between the two cameras is 3 EV, which also indicates the difference in noise level.

Striking, but probably not surprising, is the poor performance of the smartphones and the 4K Sony FDR-AX53 video camera with their tiny sensors.
For example, the telephoto camera of the iPhone 7 Plus receives 8,1 - 2,2 = 5,9 exposure values (EV) light per pixel than the Fujifilm X-Pro2 with the XF56 / f1.2 portrait lens!
One can easily be misled by the low aperture values ​​of the mini-sensors. But the f-stop number is always linked to the focal length, which depends on the sensor size. Aperture f/2 is quite good with a full-frame camera, but tiny on a smartphone. As the tiny lens only lets very little light pass trough, a high degree of image noise will be unavoidable.

The rather mediocre performance of the no-medium format camera Fuji GFX50S may be a surprise. It is mainly due to the currently available lenses, which are not particularly fast. Its sensor size may be impressive, but when the lens only comes with an equivalent aperture of f/2.2, Fuji has no chance against full format cameras with fast lenses.
DPReview has written an exceptionally detailed article about this. It also discusses the effects of sensor design.

The sensor dimensions of the smartphones and video cameras given in this table have been calculated from the Crop Factor, which in turn was calculated from the focal length given by the manufacturers. They correspond to the effective sensor surface. The actual sensor area may be larger, for example to provide excess pixels for an electronic image stabilization. However, this extra space is irrelevant to the noise behavior.

Die ISO-Zahl und die Lichtmenge

Die Bedeutung und Interpretation der ISO-Zahl wird weithin kaum oder gar nicht verstanden, wie man in hunderten Foren-Kommentaren im Internet nachlesen kann.

Historisch stammt die ISO-Zahl aus der Zeit klassischer Film-Emulsionen. Firmen wie Kodak oder Fuji produzierten ihre Film in großen Abmessungen und schnitten diese später in die endgültigen Größen (35 mm Film, 6 cm Mittelformat usw.). Offensichtlich ist die Film-Empfindlichkeit unabhängig von den Abmessungen des fertig geschnittenen Films. Und genau dafür wurde die ISO-Zahl ursprünglich definiert: Sie beschreibt die Beleuchtungsdichte (der Anzahl der Photonen pro Fläche), welche zur korrekten Belichtung einer Film-Emulsion benötigt wird.

Diese Vorgehensweise wurde dann in die heutige Zeit der elektronischen Bildsensoren übertragen.

Aber heute ist die Situation eine völlig andere: Wir haben viele verschiedene Bildformate mit Sensoren ähnlicher Pixelanzahl. Wie bereits ausführlich dargestellt ist die Lichtmenge pro Pixel wesentlich für das physikalische Verhalten eines Sensors - und nicht etwa die Lichtmenge
pro Fläche (auf der ja unterschiedlich viele Pixel enthalten sein können).

Bildrauschen entsteht beim Umwandeln der analog vom Sensor erfassten Helligkeit in ein digitales Signal. Es ist unmittelbar von der erforderlichen Signalverstärkung abhängig, also um so ausgeprägter, je weniger Photonen auf die einzelnen Pixel fallen. Die Lichtmenge pro Pixel ergibt sich aus der Lichtmenge auf der gesamten Sensorfläche geteilt durch die Anzahl der Pixel.
Und genau das repräsentiert die ISO-Zahl
nicht.

Jetzt kommt das „Problem“:
Weil die gleiche Lichtmenge beim großen Sensor auf eine größere Fläche fällt als beim kleinen Sensor, ist die Licht
dichte beim großen Sensor geringer. Also muss die ISO-Zahl eines äquivalenten großen Sensors im Verhältnis der Flächen (Quadrat des Crop-Faktors) angehoben werden. Also werden die ISO-Zahlen der beiden Sensoren deutlich unterschiedlich.

Aber dies ist ein reines Zahlenspiel und physikalisch irrelevant!

Die größere ISO-Zahl des großen Sensors bedeutet dennoch gleiche Signalverstärkung und gleiches Rauschverhalten wie die kleine ISO-Zahl des kleinen Sensors. Am Ende bekommen beide pro Pixel gleich viel Licht und nur das ist physikalisch relevant.

Leider gibt es noch einen Pferdefuß in diesem Spiel, und zwar die Bestimmung der ISO-Zahl durch den Kamerahersteller.

Der Text des ISO-Standards enthält nämlich verschiedene Möglichkeiten, wie die Hersteller die ISO-Empfindlichkeit ihrer Sensoren messen und angeben können. Weltweit hat sich ein Verfahren durchgesetzt, was von allen großen Herstellern (Canon, Nikon, Sony, Panasonic, Olympus, …) in vergleichbarer Weise genutzt wird. Nur nicht von Fuji.

Das heißt: Die ISO-Angaben von Fuji Kameras sind zu denen anderer Hersteller
nicht kompatibel!

Ich habe das Experiment mit meiner X-Pro2 und dem 35/f1,4 Objektiv im Vergleich zu Canon EOS 5DMkIII mit dem 50/f1,4 gemacht: Bei sorgfältiger Kalibrierung ergibt sich ein Unterschied zwischen theoretischem Wert (bezogen auf die Canon Kamera) und praktischem Wert (wie von Fuji angegeben) um den Faktor 1,84. Das heißt, wenn die Fuji mit ISO 200 fotografiert, dann entspricht dies in Wahrheit (bei allen anderen APS-C Kameras) ISO 109. Wohlgemerkt: In meinem Vergleich mit diesen beiden Kameras und Objektiven. Natürlich spielt da die Exemplarstreuung eine Rolle.
Tony Northrup hat ein Video veröffentlicht, bei dem er auf ISO 115 für ISO 200 kommt. Seine Differenz ist also sehr ähnlich wie die von mir gefundene. Man kann wohl davon ausgehen, dass alle Fuji-Kameras der X-Serie in dieser Größenordnung von den ISO-Werten der restlichen Fotobranche abweichen, wie auch einzelne Untersuchungen von DXOMark gezeigt haben.

Zur Veranschaulichung habe ich die folgenden Tabellen erstellt:
In jeder Zeile stehen drei ISO-Werte, die bei gleicher Lichtmenge vom Objektiv bei den jeweiligen Kameras gleich viel Licht pro Pixel bedeuten. Das heißt, die Tabelle setzt voraus, dass Brennweite und Blendenzahl mit dem Crop-Faktor umgerechnet sind. Das Rauschverhalten der Sensoren einer Zeile ist dann in etwa gleich.
Von Zeile zu Zeile halbiert sich die Lichtmenge und verdoppelt sich somit die ISO-Zahl. Also ist von Zeile zu Zeile 1 EV (exposure value = Belichtungszahl bzw. Blendenstufe) Unterschied.

The ISO number and image noise

The meaning and interpretation of the ISO number is hardly understood, or not understood at all…, as can be read in hundreds of forum postings on the Internet.

Historically, the ISO number comes from the time of classical film emulsions. Companies like Kodak or Fuji produced their films in large dimensions and later cut them into the final sizes (35 mm film, 6 cm medium format, etc.). Obviously, film sensitivity is independent of the dimensions of the finished film. And this is precisely what was the original intent of the definition of the ISO number: ISO describes the light density (the number of photons per area) required for the correct exposure of a film emulsion.

This procedure was then transferred to today's electronic image sensors.

But today the situation is quite different: We have many image formats with sensors of similar pixel count. As already explained, the quantity of light that is recorded
per pixel is essential for the physical behavior of a sensor - and not the light per sensor area (as the same area may contain a different number of pixels).
Image noise is generated by each pixel during the collection of the photons and the conversion into a digital signal. It depends directly on the required signal amplification. Noise is more pronounced when less photons fall on the individual pixels. The light quantity per pixel is determined by the light quantity on the entire sensor surface divided by the number of pixels.
And exactly that is
not represented by the ISO number.

So here comes „the problem":
When the same amount of light drops onto a large sensor and onto a small sensor, the light
density on the surface of the large sensor will be lower. Therefore, the ISO number of the large sensor must be raised in the ratio of the surface areas of the two sensors (i.e., the square of the crop factor). Consequently, the ISO numbers of the two sensors will be quite different.

But this is a pure number game and physically irrelevant!

The larger ISO number of the large sensor nevertheless means the same signal gain and the same noise behavior as the smaller ISO number of the small sensor. In the end, both sensor get the same amount of light
per pixel and that’s what matters physically.

Unfortunately, there is another drawback, namely the determination of the ISO number by different camera manufacturers.

The text of the ISO standard contains several ways in which manufacturers can measure and specify the ISO sensitivity of their sensors. Over time, a worldwide industry standard has been established that makes ISO numbers of all manufacturers (Canon, Nikon, Sony, Panasonic, Olympus, ...) more or less comparable.
Just not from Fuji.

This means: The ISO data from Fujifilm cameras are
not compatible with those of other manufacturers!

I did some experiments with my X-Pro2 and an 35/f1.4 lens compared to Canon EOS 5DMkIII with an 50/f1.4: After careful calibration, there was a difference between the theoretical value (relative to the Canon camera) and practical value (as indicated by Fuji) by a factor of 1.84. That is, if the Fujifilm is shot at ISO 200, then this really corresponds to ISO 109 with all other APS-C cameras.
To say it clearly: That was in my comparison with these two particular cameras and lenses. Of course, sample spread plays a role in this as well.
Tony Northrup has released a video on this issue and he found ISO 115 for ISO 200 with his Fuji camera. So his result is very similar to what I have found. More investigations have been done by DXOMark, which show similar results.
It can be safely assumed that all Fuji cameras of the X series differ from the ISO values ​​of the rest of the photographic world by more or less a factor of 1.7 … 1.9

For illustrative purposes, I have created the following tables:
Each line contains three ISO values. They all represent the same amount of light from the lenses of the respective cameras and thus the same amount of light per pixel assuming that the focal length and the f-number are converted with the crop factor. The noise behavior of the sensors of each line is then approximately the same.
The light quantity halves from line to line, doubling the ISO number. So from one line to the next there is a 1 EV (exposure value) difference.
Relative
Exposure Value (EV)
APS-C Sensor
(any manufacturer
except Fujifilm)
APS-C Sensor
(Fujifilm only)
Full-Frame Sensor
(any manufacturer)
1200370470
2400730940
380015001880
4160030003760
5320059007500
664001270015000
7128002350030000
1110200260
2220400510
34408001020
487016002050
5175032004100
6350064008200
770001280016400
190160200
2170310400
3340630800
468012501600
5136025003200
627005000 6400
755001000012800

Beugungsunschärfe - Diffraction-Blur-Indicator (DBI)

Wenn ein feiner Lichtstrahl durch eine Blende auf einem Sensor abgebildet wird, dann entsteht ein Wellenmuster, welches die Auflösung der Kamera reduzieren kann. Das kann man sich ähnlich vorstellen wie die Wellen auf einer glatten Wasseroberfläche, wenn ein Stein hineingeworfen wird.

Diffraction Blur

When a fine light beam passes a diaphragm and then falls onto a sensor, a wave pattern forms that can reduce the resolution of the camera. The pattern is similar to that of a smooth water surface when a stone is thrown into it.

Interessant ist vor allem die Größe der inneren Beugungsscheibe (auch Airy Disk genannt). Je weiter die Blende geschlossen wird, je größer die Blendenzahl wird, desto größer ist diese Scheibe.

Man kann sich leicht vorstellen, dass die Auflösung des Sensors nicht mehr vollständig genutzt werden kann, wenn der Durchmesser der Beugungsscheiben deutlich größer wird als die Breite von zwei Pixeln. Dann können zwei eng benachbarte Lichtquellen nicht mehr sauber getrennt werden.

Diese Auflösungsgrenze ist aber nicht scharf, der Übergang fließend. Üblicherweise setzt man die Grenze bei einer Airy Disk von 2,5-facher Pixelbreite an. Diejenige Blende, welche genau diese Scheibchengröße erzeugt, nennt man
DLA (Diffraction Limited Aperture).
Bei kleineren Blenden (also größeren Blendenzahlen) und entsprechend größeren Beugungsscheiben verliert das Kamerasystem (Sensor+Blende) sukzessive an Auflösungsvermögen.
Bei größeren Blenden (also kleineren Blendenzahlen) ist die Auflösung des Kamerasystems nicht durch Beugung begrenzt.
Of particular interest is the size of the inner diffraction disc (also called Airy disk). The more the aperture is closed, the larger the f-stop value is, the greater this disc.

One can easily imagine that the resolution of the sensor can not more be utilized to the full extend when the diameter of the diffraction disk is significantly greater than the width of two pixels. In that case, adjacent light sources can no longer be separated.

The resolution limit is not a sharp cure - the transition comes smoothly. Usually the diffraction limit is given as the aperture value when the Airy disc grows to 2.5 times the pixel width. The aperture that produces such a disc is called DLA (Diffraction Limited Aperture).
With smaller apertures (larger f-numbers) the Airy disc grows and the camera system (sensor + diaphragm) successively loses resolution.
With larger apertures (smaller f-numbers) the resolution of the camera system is not limited by diffraction.
Stacks Image 63867
Bild: Abbildung einer punktförmigen Lichtquelle hinter einer Blende auf dem Sensor: Der Punkt wird zur Scheibe.
Figure: Illustration of a spot light beam that falls onto a sensor through a diaphragm: The spot becomes a disk.
Nachfolgend einige stark vergrößerte Aufnahmen, die mit der Canon EOS 5D Mark III (22,8 Megapixel) und einem Normalobjektiv (EF 50 mm 1:1.4) gemacht wurden. Bereits bei f/11 ist eine ganz leichte Beugungsunschärfe sichtbar, die bei f/16 deutlicher wird. Bei f/22 verliert das Bild auffallend an Auflösung.
Below are some magnified pictures taken with the Canon EOS 5D Mark III (22.8 megapixels) and a standard lens (EF 50mm 1:1.4). Already at f/11 a very slight diffraction blur is visible. It becomes more apparent at f/16. At f/22 the image is obviously blurred and loses a lot of resolution.
Stacks Image 55872
Canon EOS 5D Mark III mit 50 mm Objektiv und ISO 100
bei Blende f/5,6
Canon EOS 5D Mark III with 50 mm lens at ISO 100
and f/5.6
Stacks Image 55885
Canon EOS 5D Mark III mit 50 mm Objektiv und ISO 100
bei Blende f/8
Canon EOS 5D Mark III with 50 mm lens at ISO 100
and f/8
Stacks Image 55927
Canon EOS 5D Mark III mit 50 mm Objektiv und ISO 100
bei Blende f/11
Die Beugungsunschärfe macht sich ganz leicht bemerkbar.
Canon EOS 5D Mark III with 50 mm lens at ISO 100
and f/11
Diffraction blur becomes slightly visible.
Stacks Image 55941
Canon EOS 5D Mark III mit 50 mm Objektiv und ISO 100
bei Blende f/16
Die Beugungsunschärfe wird deutlich sichtbar.
Canon EOS 5D Mark III with 50 mm lens at ISO 100
and f/16
Diffraction blur is more pronounced.
Stacks Image 55913
Canon EOS 5D Mark III mit 50 mm Objektiv und ISO 100
bei Blende f/22
Die Beugungsunschärfe macht das Bild sehr weich.
Canon EOS 5D Mark III with 50 mm lens at ISO 100
and f/22
Diffraction blur leads to a very soft image.
Man kann den Spieß auch umdrehen: Die folgende Grafik zeigt die von der Beugungsunschärfe begrenzte Bildauflösung in Megapixeln für unterschiedliche Blenden an drei Vollformatsensoren mit unterschiedlicher Megapixelzahl. Die jeweilige DLA der unterschiedlichen Sensoren ist genau diejenige Blende, bei der die waagerechte Kurve nach unten abknickt.
Optische Fehler des Objektivs (vor allem Aberration) und die Farbabtastung mit einem Bayer-Sensor (oder anderen Farbfilteranordnungen) reduzieren die reale Auflösung weiter. Diese Effekte sind im Diagramm nicht enthalten.
You can also turn the tables: The following chart shows the resolution limit in megapixels resulting from diffraction blur of three full-frame sensors for different apertures. The respective DLA of the different sensors is precisely the aperture, where the horizontal curve bends downward.
Optical aberrations of the lens and color scanning with a Bayer filter (or other color filter arrays) further reduce the achievable resolution. These effects are not included in the diagram.
Stacks Image 79317
Bild: Durch die Beugungsunschärfe begrenzte maximale Auflösung dreier Vollformat-Sensoren je nach eingestellter Blende.
Figure: Maximum resolution of three full-frame sensors limited by diffraction blur depending on the selected f-stop.
Wie ausführlich erläutert, muss die Blendenzahl bei kleineren Sensoren kleiner sein, um eine gleiche Bildwirkung wie bei Vollformat zu erreichen. Die Beugungsscheiben werden damit am kleineren Sensor aber ebenfalls kleiner. Gleichzeitig werden aber auch die Pixel auf der kleineren Sensorfläche kleiner (gleiche Megapixelzahl vorausgesetzt), so dass sich beide Effekte neutralisieren.
Man kann die DLA eines kleinen Sensors daher ebenfalls mit dem Crop-Faktor auf 35 mm Vollformat umrechnen.

Dazu ein Beispiel: Eine Vollformatkamera mit 24 Megapixeln hat eine DLA von rund f/11,3. Eine APS-C Kamera mit der gleichen Anzahl von Megapixeln hat eine DLA von f/7,4, was mit dem Crop-Faktor 1,53 umgerechnet wieder etwa f/11,3 entspricht.
Und noch ein Beispiel: Die maximal mögliche Auflösung einer APS-C Kamera bei Blende f/11 kann man dem Diagramm entnehmen, wenn man bei f/11 x 1,53 = f/17 nachschaut. Sie beträgt nur noch etwa 10 Megapixel.
Zum Ranking unterschiedlicher Kamerasysteme bietet es sich an, die theoretische Auflösungsgrenze in Megapixeln als Vergleichszahl zu nutzen.
Diese errechnet sich aus:

DBI = SH x SB / (1,333 x k / 2,5)^2

Darin ist
SH die Sensorhöhe in mm, SB die Sensorbreite in mm und k die Blendenzahl.

Der Durchmesser des Beugungsscheibchens (Airy-Disk) wird darin zu
d = 1,333 µm x k gesetzt. Bei einer Blendenzahl k = 11 ergibt sich beispielsweise ein Beugungsscheibchen von 14,7 µm Durchmesser. Diese Formel gilt für grünes Licht (550 nm Wellenlänge), welches in der Mitte des Spektrums liegt und für das das menschliche Auge am meisten empfindlich ist. Bei blauem Licht ist das Beugungsscheibchen nur noch 80% so groß.

Nun kann man den Diffraction-Blur-Indicator verwenden, um eine Rangliste von Kamerasystemen zu ermitteln:
As already explained in detail, the f-stop in front of smaller sensors must be smaller to achieve a similar image as in full-frame format. The diffraction discs are therefore also smaller. And finally the pixels of the smaller sensor are becoming smaller (assuming the same number of megapixels), so that both effects neutralize each other.
Therefore, the DLA of a small sensor can also be converted by the crop-factor to full-frame format.

An example: A full-frame camera with 24 megapixels has a DLA of around f/11.3. An APS-C camera with the same number of megapixels has a DLA of f/7.4. This converts to about f/11.3 with a crop factor of 1.53.
Another example: The maximum achievable resolution of an APS-C camera with aperture f/11 can be found in the figure above at f/11 x 1.53 = f/17. The camera only resolves a maximum of about 10 megapixels regardless of its actual megapixel count (provided it is more than 10 megapixels).
For the ranking of different camera systems, it is useful to use the theoretical resolution limit in megapixels as a comparison number.
This is calculated as:

DBI = SH x SW / (1.333 x k / 2.5)^2

Where
SH is the sensor height in mm, SW is the sensor width in mm, and k is the f-stop number.
 
The diameter of the diffraction plate (Airy-Disk) is set to
d = 1.333 μm × k. For example, with a f-stop number k = 11, an Airy-Disk of 14.7 μm diameter is obtained. This formula applies to green light (550 nm wavelength), which is located in the center of the light spectrum where the human eye is most sensitive. For blue light, the Airy-Disk will shrink to 80%.

Now the diffraction blur indicator DBI can be used to compare different camera systems:
Stacks Image 105995
In der Spalte rechts neben dem DBI habe ich eine Beurteilung eingefügt: Sehr gut, wenn die durch Beugungsunschärfe begrenzte Auflösung mindestens um den Faktor 2,5 über der Megapixelzahl des Sensors liegt; Schlecht, wenn die Megapixelzahl des Sensors größer als die durch Beugungsunschärfe begrenzte Auflösung ist; dazwischen dann OK.

Die Resultate der Vollformat und APS-C Sensoren sind - gerade bei Offenblende - so hoch, dass hier keinerlei Einschränkungen in der Auflösung durch Beugungsunschärfe zu befürchten sind.
Anders sieht es dagegen wieder bei den Smartphones mit ihren winzigen Objektiven aus. Bisher hat Apple es immer geschafft, die Öffnung der Objektive gerade so groß zu machen, dass die volle Auflösung des Sensors genutzt werden konnte. Bei der Telekamera des iPhone 7 Plus ist dies erstmals nicht der Fall: Hier können nur noch maximal 8 Megapixel aufgelöst werden, obschon der Sensor 12 Megapixel enthält.
Auch die Videokamera Sony FDR-AX53 überschreitet in Telestellung die technische Auflösungsgrenze: Zwar werden 8,3 Megapixeln ausgelesen (4K Video), die effektive Auflösung entspricht aber bestenfalls 5 Megapixeln (oder weniger, wenn man Objektivfehler und Einschränkungen durch den Bayer-Farbfilter berücksichtigt).
The results of the full-format and the APS-C sensors are very good. There are no restrictions in resolution due to diffraction blur.
Smartphones with their tiny lenses, however, have their limitations. In previous products Apple has always managed to pair their sensors with lenses who’s apertures were just large enough to maintain full sensor resolution. This is no longer the case for the telecamera of the iPhone 7 plus: Here, only a maximum of 8 megapixels can be resolved, although the sensor provides 12 megapixels.
The Sony FDR-AX53 video camera also exceeds the technical resolution limit: 8.3 megapixels are read (4K video) but the effective resolution is 5 megapixels at best (it may be further reduced by lens imperfections and restrictions of the Bayer color filter).

Schärfentiefe - Depth-of-Field-Indicator (DFI)

Eine weitere relevante Vergleichsgröße unterschiedlicher Kamerasysteme ist die Schärfentiefe. Wenn eine Kamera auf ein Objekt fokussiert, dann ist streng genommen nur die Einstellebene vollkommen scharf. Nähere und fernere Objekte werden graduell mit ihrem Abstand von der Einstellebene unschärfer.

Allerdings kann unser Auge diese sanft zunehmende Unschärfe (den Zerstreuungskreisdurchmesser) erst erkennen, wenn ein bestimmtes Maß überschritten wird. Hierfür gibt es unterschiedliche Definitionen. Ich verwende 1/1500-tel der Bilddiagonalen, weil dies bei üblichen Betrachtungsabständen ungefähr der Auflösung des menschlichen Auges entspricht.

Man kann die Tiefe der Schärfezone vor und hinter der Einstellebene mit den folgenden Formeln berechnen:

ß = SH / G

Darin ist
ß der Abbildungsmaßstab, SH die Sensorhöhe und G die Objekthöhe.

g = f’ x (G / SH +1)

Darin ist
g die Objektweite (Abstand) und f’ die Brennweite des Objektivs.

Der maximale Durchmesser des Zerstreuungskreises ergibt sich aus:

C = wurzel(SH^2+SB^2) / 1500

Die Tiefe der Schärfenzone hinter der Einstellebene wird:

bh = g / ((f’ x ß) / (k x C) -1)

k ist wieder die Blendenzahl.
Die Schärfenzone vor der Einstellebene errechnet sich aus:

bv = g / ((f’ x ß) / (k x C) +1)

Auch hier bietet es sich an, eine Vergleichszahl zu definieren, mit der man unterschiedliche Kamerasysteme bewerten kann. Weil eine flache Schärfentiefe vor allem bei Portraitfotographie wichtig ist, lege ich eine Referenz-Objekthöhe
G = 0,5 m fest. Der Abstand von der Kamera zum Objekt g muss entsprechend der Brennweite und der Sensorgröße angepasst werden.

Der Depth-of-Field-Indicator (DFI) ist dann nichts anderes als die Tiefe der Schärfenzone:
DFI = bh+bv.

Je kleiner DFI, umso schöner wird unser Portrait vom Hintergrund abgehoben sein. Je größer DFI, um so mehr tritt der Hintergrund hervor.
Es ergibt sich folgender Vergleich:

Depth-of-Field-Indicator (DFI)

Another relevant quantity when comparing different camera systems is the depth of field. When a camera focuses on an object, only the focusing plane is completely sharp. Closer and distant objects gradually become more blurred with their distance from the focusing plane.
 
However, our eye can not recognize a gently increased blurring until a certain limit (diameter of dispersion circle) is exceeded. There are different definitions for this limit. I will use 1 / 1500th of the image diagonal as this approximately corresponds to the resolution of the human eye at normal viewing distances.

The depth of the sharpness zone before and behind the focusing plane can be calculated with the following formulas:

ß = SH / G

Where
ß is the imaging scale, SH is the sensor height, and G is the object height.

g = f' x (G / SH + 1)

Where
g is the object distance and f' is the focal length of the lens.

The maximum allowed diameter of the dispersion circle is given by:

C = square-root(SH^2 + SW^2) / 1500

The depth of the sharpening zone behind the setting plane is:

bb = g / ((f’ x ß) / (k x C) -1)

k is again the f-stop number of the aperture.
The sharpening zone in front of the focusing plane is calculated as follows:

bf = g / ((f’ x ß) / (k x C) +1)
 
To compare different camera systems we need another indicator. As a shallow sharpening depth is particularly important in portrait photography, we will use a fixed reference object height
G = 0.5 m. The distance from the camera to the object g must be adjusted according to focal length and sensor size.

Then, the Depth-of-Field-Indicator (DFI) is simply the depth of the sharp zone:
DFI = bb + bf.

The smaller DFI, the more beautiful a portrait will stand out from the background. The larger DFI, the more the background comes into sight.
The following table shows some results:
Stacks Image 106070
Das Teleobjektiv des iPhone 7 Plus hat bei einem Portraitfoto also eine Schärfentiefe von sage und schreibe 54 cm. Davon liegen rund 33 cm hinter und rund 21 cm vor der Einstellebene. Nicht wirklich gut, um einen Kopf vom Hintergrund frei zu stellen.
Lustigerweise hat die normale Kamera des iPhone 7 Plus mit 29 cm eine deutlich flachere und damit schönere Schärfentiefe. Dafür muss man natürlich viel näher an das Modell herangehen (auf 1,1 m Abstand beim Tele- und auf 0,5 m Abstand beim Standardobjektiv). Es scheint überraschend, dass das Teleobjektiv weniger Freistellung ermöglicht als das Standardobjektiv. Dieser Effekt resultiert aus der kleineren Blende und der kleineren Chipfläche der Telekamera gegenüber der Standardkamera des iPhone 7 Plus.

Den Vogel in diesem Vergleich schießt das Leica Noctilux ab: Sage und schreibe 2,5 cm Schärfentiefe bei Portraitaufnahmen mit Offenblende. Da muss man den Fokus schon sehr gut einstellen können, damit zumindest ein Auge noch scharf wird :-)
The telephoto lens of the iPhone 7 Plus has a depth of field of 54 cm. This is about 33 cm behind and about 21 cm in front of the focusing plane. Not really good to separate a portrait from a blurry background.
iPhone 7’s main camera has a much flatter and therefore more beautiful depth of field depth with 29 cm. Of course, one has to approach the model much closer (1.1 m distance with the tele lens and 0.5 m distance with the main lens). It seems surprising that the main lens has a shallower depth of field than the telephoto lens. This is due to the smaller aperture and the smaller chip area of ​​the telecamera.

The undisputed depth-of-field crown in this comparison goes to the Leica Noctilux: Barely 2.5 cm depth-of-field will require a very precise focus to have at least one eye of the model in full sharpness :-)

Zusammenfassung

Wie überträgt man also die Einstellungen einer Kamera mit kleinem (oder großem) Sensor auf eine Vollformat-Kamera, damit dort genau die gleichen Bilder herauskommen?
Hier braucht man den Crop-Faktor, der sich aus dem Verhältnis der Bilddiagonalen der beiden Sensoren ergibt. Die Brennweite des Vollformat-Objekts ist offensichtlich mit dem Crop-Faktor anzupassen.

Darüber hinaus scheint es naheliegend, Belichtungszeit, Blende und die ISO-Zahl an beiden Kameras gleich zu behalten, also beispielsweise 1/500s, f/4 und ISO 800 an beiden Kameras. Auf diese Weise erhält man von beiden Kameras Fotos mit gleichem Bildwinkel und gleicher Helligkeit. Aber die beiden Fotos haben eine deutlich andere Schärfentiefe. Die Aufnahme der Vollformat-Kamera hat außerdem weniger Bildrauschen und leidet weniger unter Beugungsunschärfe. So geht es also nicht.

Richtig ist es vielmehr, auch die Blende mit dem Crop-Faktor umzurechnen und die ISO-Zahl mit dem Quadrat des Crop-Faktors.
Die folgenden Tabellen zeigen zwei Beispiele:
UmrechnungAPS-CVollformat
Crop-Faktor 1,524 x 16 mm^2 Sensor36 x 24 mm^2 Sensor
x CF33 mm Brennweite50 mm Brennweite
x CFf/4,0f/6,1
x CF^2ISO 200ISO 470
1/500 s1/500 s
24 Megapixel24 Megapixel
x CF4,0 µm Pixelgröße6,8 µm Pixelgröße
x CFDLA f/7,5DLA f/11,3
UmrechnungiPhone 6Vollformat
Crop-Faktor 7,24,8 x 3,6 mm^2 Sensor36 x 24 mm^2 Sensor
x CF4,15 mm Brennweite30 mm Brennweite
x CFf/2,2 fixf/16 fix
x CF^2ISO 32 … 2000ISO 230 … 14400
1/500 s1/500 s
8 Megapixel8 Megapixel
x CF1,5 µm Pixelgröße10,4 µm Pixelgröße
x CFDLA f/2,8DLA f/20
Wenn man richtig umrechnet, dann sind die Bilder der beiden Kameras hinsichtlich Bildwinkel, Perspektive, natürlicher Vignettierung, Schärfentiefe und Bewegungsunschärfe genau gleich. Die von beiden Objektiven aufgesammelte Lichtmenge und damit auch die Lichtmenge pro Pixel sind ebenfalls genau gleich. Daher sind Bildrauschen und Dynamikumfang sehr ähnlich (abhängig von der Qualität der Signalverarbeitung auf dem Bildsensor).
Ebenfalls gleich ist die Beugungsunschärfe, da das Verhältnis von Beugungsscheibengröße zu Pixelgröße gleich ist.

Tony Northrup hat ein anschauliches
Video erstellt, welches einige der oben erklärten Zusammenhänge beschreibt. Er zeigt auch, wie Firmen wie Sony und Panasonic ihre Kunden durch irreführende Angaben betrügen. Eine viel detailliertere und technischere Beschreibung dieser Zusammenhänge findet sich auf Wikipedia.
Den vielleicht interessantesten Artikel zu dieser Thematik, der auch auf die verschiedenen Sensortechnologien eingeht, hat DPReview veröffentlicht.

Wenn man erreichen möchte, dass auch die Bildauflösung (in Linienpaaren pro Bildhöhe oder als effektiv wirksame Megapixelzahl) gleich ist, dann muss das Objektiv am kleineren Sensor allerdings eine um den Crop-Faktor bessere optische Qualität (Auflösung) haben, denn die Pixel sind dort entsprechend kleiner.

Der Noise-Level-Indicator (NLI), Diffraction-Blur-Indicator (DBI) und Depth-of-Field-Indicator (DFI) ermöglichen eine gute Einschätzung, wie sich zwei Kamerasysteme qualitativ zueinander verhalten. Sie sind jedoch theoretische Bestwerte. Reale Kameras werden aufgrund vielfältiger Qualitätseinschränkungen bei Objektiv und Sensor mehr oder weniger deutlich von diesen Bestwerten nach unten abweichen. Und natürlich gibt es auch technischen Eigenschaften, die sich gar nicht umrechnen lassen, zum Beispiel optische Abbildungsfehler, Farbwiedergabe, Mikrokontrast oder Bokeh.

<<<
DOWNLOAD einer EXCEL Datei mit allen Berechnungen >>>

Summary

How to transfer the settings of a camera with a small (or large) sensor on a full-frame camera, in order to get similar images?
Here we need the crop factor, which is derived from the ratio of the screen sizes of the two sensors. Obviously, the focal length of the full-format lens must be adjusted to the crop factor.

It also seems obvious to keep shutter speed, aperture and ISO numbers on both cameras equal, for example 1/500s, f/4 and ISO 800 on both cameras. With these settings both cameras will produce photos with the same angle of view and the same brightness. However, the pictures have a much different depth of field. Furthermore, the image of the full-frame camera shows less noise and suffers less from diffraction blur. This is not the right way to transfer the camera settings.

For a correct image comparison, the aperture needs to be converted with the crop factor as well and the ISO number with the square of the crop factor. The following tables give two examples:
ConversionAPS-CFull-Frame
Crop Factor 1,524 x 16 mm^2 Sensor36 x 24 mm^2 Sensor
x CF33 mm Focal Length50 mm Focal Length
x CFf/4.0f/6.1
x CF^2ISO 200ISO 470
1/500 s1/500 s
24 Megapixel24 Megapixel
x CF4,0 µm Pixelgröße6,8 µm Pixelgröße
x CFDLA f/7.5DLA f/11.3
ConversioniPhone 6Full-Frame
Crop Factor 7,24,8 x 3,6 mm^2 Sensor36 x 24 mm^2 Sensor
x CF4,15 mm Focal Length30 mm Focal Length
x CFf/2.2 fixedf/16 fixed
x CF^2ISO 32 … 2000ISO 230 … 14400
1/500 s1/500 s
8 Megapixel8 Megapixel
x CF1,5 µm Pixelgröße10,4 µm Pixelgröße
x CFDLA f/2.8DLA f/20
By using the correct conversions, the field of view, perspective, natural vignetting, depth of field and motion blur of the two systems will be exactly alike. The amount of light received by both lenses and consequently also the light per pixel are also exactly the same. Image noise and dynamic range are very similar (depending on the quality of the signal processing on the image sensor). Finally, diffraction blur is also identical, since the ratio of the diffraction disk size to pixel size is the same.

Tony Northrup has made a nice
video that explains all of these relationships. He also shows how companies like Sony and Panasonic are cheating in their marketing material when comparing lenses for small cameras to their equivalent full frame lenses. A much more detailed technical discussion of this whole topic can be found at Wikipedia.
Probably the most interesting article on this topic, which also compares different sensor designs, has been published on
DPReview.

When we want to achieve the same image resolution (in line pairs per picture height or effective megapixel count), then the lens for the smaller sensor must have a better optical quality (resolution) by the crop factor, because the pixels are there accordingly smaller.

The Noise-Level-Indicator (NLI), Diffraction-Blur-Indicator (DBI) and Depth-of-Field-Indicator (DFI) allow a good assessment of how two cameras compare to each other. However, they are theoretical best values. Real cameras will deviate more or less from these values ​​due to a variety of quality limitations of the lens and sensor. And, of course, there are technical features that can not be converted, for example optical lens errors, color reproduction, microcontrast or bokeh.

<<<
DOWNLOAD an EXCEL file with all calculations >>>

Nachtrag [2017-03-01]

Im Internet geistert eine Vielzahl von Postings umher, in denen es bei der optischen Umrechnung zwischen verschiedenen Sensorgrößen recht abenteuerlich zu geht (um nicht zu sagen: schlichtweg falsch).
Deshalb hier nochmal in Kurzform die physikalischen Fakten:

- Zwei Kamerasysteme sind dann als äquivalent zu betrachten, wenn Bildwinkel, Bildhelligkeit und Pixelanzahl (sowie Rauschverhalten, Schärfentiefe, Beugungsunschärfe, …) annähernd gleich sind.
- Es ist sinnlos, lediglich den Bildwinkel umzurechnen, aber die Bildhelligkeit zu ignorieren. Offensichtlich sind zwei Objektive nicht äquivalent, wenn eines wesentlich lichtschwächer ist als das andere. Niemand würde behaupten, dass ein 50 mm f/1,4 äquivalent zu einem 50 mm f/2,8 sei. Aber ein MicroFourThirds 25 mm f/1,4 Objektiv empfängt nunmal die gleiche Lichtmenge wie ein Vollformat 50 mm f/2,8, weil beide die gleiche Eintrittspupille haben. Ganz offensichtlich ist das 50 mm f/1,4 ein völlig anderes Kaliber.
- Die einzige physikalisch korrekte und photografisch sinnvolle Umrechnung von Bildwinkel und Lichtstärke ist wie oben beschrieben: Brennweite und Blende mit dem Crop-Faktor, ISO-Zahl mit dem Quadrat des Crop-Faktors.
- Nur mit dieser Umrechnung wird erreicht, dass auf den großen Sensor die gleiche Lichtmenge (die gleiche Anzahl Photonen) fällt wie auf den kleinen Sensor.
- Unter der Voraussetzung, dass die Pixelzahl bei beiden Sensoren gleich ist, ist damit auch die pro Pixel empfangene Lichtmenge (Anzahl Photonen) gleich.
- Die LichtDICHTE (Anzahl Photonen pro Fläche) ist dann beim kleinen Sensor höher. Aber das ist irrelevant, weil ja gleichzeitig die Pixelgröße schrumpft.
- Aufgrund der höheren Lichtdichte muss beim kleinen Sensor eine kleinere ISO-Zahl eingestellt werden, weil die ISO-Zahl genau dadurch definiert ist. Auch das ist irrelevant, denn die Anzahl der Photonen pro Pixel und damit die erforderliche elektronische Nachverstärkung sind gleich. Damit ist auch das Rauschverhalten gleich, solange die Sensortechnologie ähnlich ist.
- Ebenfalls gleich sind dann die Schärfentiefe und die Größe der Beugungsscheibe relativ zur Pixelgröße, d.h. die Beugungsunschärfe.

Sooo schwer ist das doch alles nicht :-)

Wodurch entsteht also die Konfusion, die bei manchen Internetkommentaren zu beobachten ist?
Das liegt offenbar daran, dass die Pixelanzahl bzw. Pixelgröße vergessen wird.

Auch hierzu ein Beispiel:
Wir vergleichen ein 25 mm f/1,4 Objektiv an einer 16 Megapixel Microfourthirds Kamera mit einem 50 mm f/1,4 Objektiv am Vollformat, so wie es manche Kamerahersteller und viele Forenkommentare tun.
Die Eintrittspupille beim Vollformat-Objektiv (Brennweite durch Blendenzahl) ist doppelt so groß, die empfangene Lichtmenge also vierfach.
Die Leucht
dichte auf der Sensoroberfläche ist allerdings gleich, denn der Sensor ist ja auch viermal so groß.
Damit ist auch die ISO Einstellung gleich. Hurra!

Und weiter: Bei gleicher Leuchtdichte muss auch die Pixelgröße gleich sein, damit jedes Pixel die gleiche Lichtmenge empfängt.
Allerdings ergibt sich jetzt wegen der vierfach größeren Sensorfläche die vierfache Anzahl an Pixeln!
Das Vollformat Objektiv kann also jeden Einzelnen der 64 Megapixel mit gleich viel Licht versorgen wie das Microfourthirds Objektiv seine 16 Megapixel.
Das Rauschverhalten ist dabei annähernd gleich (bei gleicher Sensortechnologie): Gleiche Lichtmenge pro Pixel benötigt gleiche elektronische Verstärkung.

Aber wie aber kann man ernsthaft behaupten, dass 16 Megapixel äquivalent zu 64 wären?
Und wenn man die Megapixelzahl einfach gleich ließe, dann wäre das Rauschverhalten des großen Sensors drastisch besser.

Und weil die absolute Größe der Beugungsscheiben gleich bleibt (da gleiche Blendenzahl), ist die Beugungsunschärfe beim kleinen Sensor deutlich schlimmer als beim großen.
Die Schärfentiefe passt natürlich ebenfalls nicht zusammen. Das Bokeh der beiden Objektive ist total unterschiedlich.
So geht es also nicht.

Die folgende Tabelle fasst die unterschiedlichen Methoden und die resultierenden Ergebnisse zusammen (alles für gleiche Verschlusszeit):
Falsche Methode 1Falsche Methode 2Richtige Methode
Brennweitex CFx CFx CF
Blendenzahl==x CF
ISO Zahl= =x CF^2
Megapixel =x CF^2=
Lichtmenge pro Pixel
(Rauschverhalten)
ungleich
(größerer Sensor bekommt
viel mehr Licht pro Pixel
und rauscht weniger)
==
Beugungsunschärfe
(Größe der Beugungsscheibe
relativ zur Sensorgröße)
ungleich
(Beugungsunschärfe am
größeren Sensor
ist viel besser)
ungleich
(Beugungsunschärfe am
größeren Sensor
ist viel besser)
=
Schärfentiefeungleich
(größerer Sensor
hat viel mehr Bokeh)
ungleich
(größerer Sensor
hat viel mehr Bokeh)
=
Ganz kurz und prägnant zusammengefasst kann man also sagen: Die entscheidende Vergleichsgröße ist die Lichtmenge, die von jedem Pixel empfangen wird. Nur wenn die Objektive zweier Kameras vorne gleich groß sind, nehmen sie auch gleich viel Licht auf und jedes Pixel bekommt gleich viel davon ab - unabhängig von Sensor- oder Pixelgröße. Nur dann kommen hinten auch vergleichbare Bilder heraus!
Wenn ein Objektiv größer oder kleiner als das andere ist, kann wohl niemand ernsthaft erwarten, dass die Ergebnisse gleich wären.

Supplement [2017-03-01]

The internet is full of postings that are confusing or even plain wrong about optical equivalence between different sensor sizes.
Therefore, I will summarise the physical facts in short form:

- Two camera systems can be considered equivalent when
field of view, image brightness and number of megapixels (as well as image noise, depth of field, diffraction blur, …) are approximately the same.
- It is pointless to convert the field of view, but ignore image brightness. Obviously, two lenses are not equivalent when one is significantly brighter than the other. No one would argue that a 50mm f/1.4 lens is equivalent to a 50mm f/2.8. But a MicroFourThirds 25mm f/1.4 lens receives the same amount of light as a full-frame 50mm f/2.8 because both have the same entrance pupil. The 50mm f/1.4 is a completely different caliber.
- The only physically correct and photographically meaningful conversion of field of view and image brightness is as described above: focal length and aperture multiplied with the crop factor, ISO number with the square of the crop factor.
- This conversion provides that the total amount of light (the same number of photons) on the large sensor and on the small sensor are identical.
- Assuming that the number of pixels is the same for both sensors, the amount of light received per pixel (the number of photons) will also be the same.
- The light
density (the number of photons per area) is higher on the small sensor. But this is irrelevant because at the same time the pixel size shrinks.
- Due to the higher light density, a lower ISO number must be set for the small sensor because this is how ISO is defined. But again, the difference in ISO numbers is irrelevant because the number of photons per pixel and thus the required electronic amplification is the same, as long as the sensor technology is comparable.
- Also identical are the depth of field and the size of the diffraction disc relative to the pixel size (i.e. the diffraction blur).

At the end, it’s not that difficult :-)

So what is the reason for the confusion, which can be found in many internet comments?
I assume, this is because the number of megapixels and the pixel size are ignored.

Here's an example:
We compare a 25mm f/1.4 lens on a 16 megapixel MicroFourThirds camera with a 50mm f/1.4 lens on full frame.
Just as some (many?) camera manufacturers and many internet comments do.

The entrance pupil (i.e. the focal length divided by the f-stop number) of the full frame lens is twice as large. Therefore, it receives four times the amount of light.
The light
density on the full frame sensor surface is the same as on the MicroFourThirds sensor surface because the sensor area is also four times as large.
So the ISO settings are the same. Hooray!
Let’s go on:
To achieve the same amount of light per pixel, the pixel sizes must be the same as the light densities are the same.
However, as the sensor area is four times as large, now the number of pixels quadruples!
Thus the full frame lens can provide 64 megapixels with as much light as the MicroFourThirds lens provides to its 16 megapixels (meaning: each pixel receives the same amount of photons).
And both sensors / lenses will produce nearly the same image noise (as long as sensor technology is similar).

But how can you reasonably say that 16 megapixels are equivalent to 64?
And if you just left the megapixel number the same, the noise level of the larger sensor would be drastically better.

And, by the way, as the absolute size of the airy disk remains the same (same f-stop number) between the different sensor sizes, diffraction blur will be much worse on the smaller sensor.
Finally, the depth of field does not fit at all. The bokeh of the two lenses are totally different.
Obviously, this is not the right way to gain equivalence.

The following table summarises the findings (all for same shutter speed):
Wrong method 1Wrong method 2Correct method
Focal lengthx CFx CFx CF
Aperture (f-stop number)==x CF
ISO number= =x CF^2
Megapixels =x CF^2=
Amount of light per pixel
(noise behaviour)
different
(the larger sensor receives
much more light per pixel
and thus has lower
image noise)
==
Diffraction blur
(Size of the airy disc
relative to sensor size)
different
(diffration blur
is much better
on the larger sensor)
different
(diffraction blur
is much better
on the larger sensor)
=
Depth of fielddifferent
(the larger sensor
has much more bokeh)
different
(the larger sensor
has much more bokeh)
=
To put it short and simple: The critical reference is the amount of light received by each pixel. Only when the openings (front diameter) of two lenses on two cameras are the same size, they receive the same amount of light and each pixel gets an equal amount - independent of sensor or pixel size. Only then can we get equivalent images!
No one can seriously expect similar results if one lens is noticeably larger or smaller than the other.