Habe ich nun einen Verständnispaul oder liege ich einfach falsch...
Mein Problem ist folgendes: Das Panorama-Foto besteht doch eigentlich aus 196 zusammengenähten ("stitched") Einzelbildern. Und jedes dieser einzelnen Bilder wurde mit einer 4 MPixel-Kamera aufgenommen.
Wie kann man denn nun aus dieser Serie von 4 MP -Bilder eine Auflösung rausbekommen, dass man am anderen Ende der Schlucht eine Person an einem Geländer sehen kann, während bei einem "normalen" 4MP-Bild eigentlich nur noch ein Klecks übrigbleit?
Eigentlich dürfte doch das Foto (obwohl rein rechnerisch über 1 GP) keine höherer Auflösung als ein normales 4 MP-Foto haben?