Frage:
Kann man nur anhand eines Fotos eines Stadtbildes feststellen, ob es mit Weitwinkel oder aus der Ferne mit Zoom aufgenommen wurde?
pr3sidentspence
2019-05-16 23:14:46 UTC
view on stackexchange narkive permalink

Ich kümmere mich um ein Projekt, das Vintage-Fotos in unserer Stadt digitalisiert und zugänglich macht. Wir hatten immer Probleme damit, festzustellen, von wo aus ein Foto aufgenommen wurde. Wir haben Daten zu den Abmessungen der Gebäudestandorte und möchten ein Tool erstellen, um dies automatisch anhand der markierten Gebäude in einem Bild zu ermitteln. Ich bin zuversichtlich, dass wir im 3D-Raum eine Linie finden können, auf der sich die Kamera befunden haben muss. Ich weiß jedoch nicht, ob es möglich ist, einen Punkt auf dieser Linie zu bestimmen.

Ist dies überhaupt möglich?

Update : I. hätte dies erwähnen sollen, aber das Endziel ist, dass dies ein fast vollständig automatisierter Prozess ist. Wenn es erforderlich ist, Eck- oder Kantenebenen zu erstellen oder Dinge in Google Earth zu vergleichen, verfügen wir nicht über die personellen Ressourcen, um dies zu tun. s>

Update Um es klar auszudrücken, bitte ich nicht um eine Programmierlösung. Ich musste wissen, ob es möglich war, auch manuell, bevor ich versuchte, eine Programmierlösung zu entwickeln. Es hört sich so an.

(PS - falls es jemandem hilft, besteht die Methode, die ich denke, um diese Linie möglicher Kamerapositionen zu finden, darin, die Mittellinien von drei bekannten Gebäuden auf dem Foto zu verwenden, laden ihre Koordinaten aus meiner Datenbank und finden (entweder durch Lösen von Gleichungen oder nur iterativ) heraus, welche Peilung bewirkt, dass das Verhältnis der horizontalen Spanne der Mitte zu der Spanne der linken und rechten am gleichen Verhältnis mit dem Verhältnis auf dem Foto übereinstimmt, sobald dies bekannt ist Dasselbe kann mit der vertikalen Spanne auf dem Foto gemacht werden, um einen Azimut zu finden.)

(PPS- Das allererste Bild, an dem ich dies anprobierte, hat mir das Gegenteil bewiesen. Drei Gebäude in einer geraden Straße sind im Grunde alle in einer Linie, die vielleicht einen Kilometer voneinander entfernt sind (insgesamt). Die Perspektive verursachte Trennungsverhältnisse im Bild, die nicht durch Drehen des 3D-Modells um die vertikale Achse dupliziert werden können. Es könnte (wahrscheinlich) immer noch möglich sein, dies zu lösen, aber es wird nicht so einfach sein, wie ich gehofft hatte.)

Eng verwandt: [Wie kann ich genau herausfinden, wo jemand stand, um dieses alte Stadtbildfoto aufzunehmen?] (// Photo.stackexchange.com/q/86188)
Vorschlag: Fragen Sie einen Vermesser. Was Sie fragen und worüber die Antworten sprechen, ist mit den Methoden der Vermessung vertraut.
Ich bin mir nicht sicher, ob es genau das ist, was Sie wollen, aber es gibt eine Software namens fSpy, die alle Kamera- / Objektivparameter berechnen kann, wenn Sie verschwindende Linien darauf auswählen -> https://fspy.io/basics/
Wenn Sie denken, Sie können eine Linie finden, können Sie wahrscheinlich zwei Linien finden, und dann müssen Sie nur deren Schnittpunkt finden. (Ich sage nicht, dass dies eine gute praktische Methode ist, ich wollte Ihnen nur eine Vorstellung von der Frage geben, ob dies möglich ist.)
Hallo pr3sidentspence, Willkommen bei der Fotografie StackExchange. Wir wünschen Ihnen viel Spaß beim Austausch von Wissen und Erfahrungen.
Wissenswertes: Egal was passiert, Sie können sicher sein, dass die Objektivposition den Horizont bestimmt. Alles, was der Horizont schneidet, befindet sich auf Linsenhöhe. Alles unter dem Horizont befindet sich unter der Linsenhöhe. alles oben ist oben. Mit der "Zweipunkt" -Perspektive ist es möglich, einen Referenzhorizont geometrisch zu konstruieren.
Das Update macht diesen Thread OOT für photo.stackexchange. Sie suchen nach einer Programmierlösung auf einer Foto-Website
Es tut uns leid. Ich möchte nicht, dass jemand eine Programmierlösung anbietet. Ich wollte nur wissen, ob das, was ich tun wollte, überhaupt möglich ist. Ich habe das Update vorgenommen, um nicht vorzuschlagen, dass ich eine Programmierlösung haben möchte, aber damit niemand Zeit in eine "sorgfältige Ausrichtung der Google Earth-Antwort" investieren würde, wie sie beispielsweise bei verknüpften ähnlichen Fragen zu sehen war. Es schien mir, dass Fotografen mit dem Problem der Programmierer (im Allgemeinen) besser vertraut wären.
Stan, deine Trivia werden wirklich hilfreich sein, danke!
Vielen Dank an alle, die sich die Zeit genommen haben, zu antworten und zu kommentieren. Ich würde alle Ihre Antworten als ** die ** Antwort markieren, wenn ich könnte. Aber Xenoids Pilotantwort Ich denke, die besten Antworten auf meine Fragen. Stan, deine Kommentare und Antworten werden mir wahrscheinlich am meisten helfen, dorthin zu gelangen, wo ich sein möchte, wenn ich dazu in der Lage bin :)
Fünf antworten:
#1
+11
xenoid
2019-05-17 01:20:26 UTC
view on stackexchange narkive permalink

Sie können häufig Techniken aus der Pilotierung verwenden. Im Bild finden Sie Ausrichtungen, z. B. die Ecke eines Gebäudes, die die zweite vertikale Fensterlinie des Gebäudes im Hintergrund abdeckt. Daraus bestimmen Sie eine Linie, auf der sich die Kamera befunden haben muss. Mit zwei weiteren solchen Ausrichtungen erhalten Sie drei Linien, die Ihnen ein Dreieck geben, in dem sich die Kamera befunden haben muss, und ihre Größe gibt Ihnen ein gewisses Maß an Genauigkeit. Vordergrundelemente können Ihnen dann eine sehr genaue Position geben. GoogleEarth ist dein Freund.

Irgendwie hatte ich vor ein paar Jahren nichts mit Fotografie zu tun und suchte nach neuen Wohnungen. Die Anzeigen geben nie die vollständige Adresse an, aber ich übte diese Technik unter Verwendung der Ansichten von Fenstern und Balkon in den Werbebildern, die ich normalerweise konnte das Gebäude zu erkennen.

#2
+7
timvrhn
2019-05-16 23:34:36 UTC
view on stackexchange narkive permalink

Ich kenne mich nicht mit der Mathematik und Programmierung aus, die dafür erforderlich sind, aber ich kann Ihnen einige Einblicke in Informationen geben, die für so etwas benötigt werden.

Was Sie untersuchen möchten, ist Perspektive Verzerrung in der Fotografie. Insbesondere müssen Sie die Objektivkomprimierung untersuchen (was ein Scheinbegriff ist, aber davon abgesehen).

Ein kurzer Überblick über perspektivische Verzerrungen und Komprimierungen:
In der Fotografie, Die Brennweite des verwendeten Objektivs bestimmt, wie breit oder schmal die Aufnahme ist. Eine kleine Brennweite bedeutet Weitwinkel und umgekehrt.
Die Wahl der Brennweite wirkt sich nicht nur auf die Verzerrung aus, wie dies durch das GIF auf der Wiki-Seite wunderschön dargestellt wird, sondern bestimmt auch die Komprimierung.

Angenommen, Sie sind 10 Meter von Mike entfernt. Sie machen ein Bild von Mike mit einem 50-mm-Objektiv, gehen dann auf 40 Meter zurück und machen ein weiteres Bild mit einem 200-mm-Objektiv. Mikes schönes Gesicht nimmt den gleichen Platz auf dem Rahmen ein, aber diesmal scheint der Hintergrund viel näher an ihm zu sein und Mikes Gesicht ist "flacher" als auf dem vorherigen Bild. Dies wird allgemein als Komprimierung bezeichnet.

Wenn Sie sich ansehen, wie komprimiert die Bilder sind, kann möglicherweise Ihnen bei der Bestimmung der Entfernung helfen. Dies ist jedoch bereits schwierig und würde wahrscheinlich einiges an Rätselraten erfordern. Es wird jedoch schwieriger.

Wenn Sie nicht über die Originaldateien oder Negative / Positive verfügen, ist es nicht unwahrscheinlich, dass das angezeigte Foto zugeschnitten wird.
Weiteres Zuschneiden macht es schwierig, da das Zuschneiden Auswirkungen hat Komprimierung auch. Ein Bild, das mit einem 50-mm-Objektiv aufgenommen wurde, das auf die Hälfte der Größe zugeschnitten ist, sieht (aus Sicht der Komprimierung) genauso aus wie das Foto, das stattdessen mit einem 100-mm-Objektiv aus derselben Entfernung aufgenommen wurde.

Sehen Sie das Bild?

@pr3sidentspence hier ist ein großartiges Bild von Tims Beispiel mit "Mike" - https://petapixel.com/2016/07/28/camera-adds-10-pounds/
Das ist ein interessanter Ansatz, den Sie vorschlagen, aber ich denke, die Fehleranalyse wird zeigen, dass das Ergebnis sehr empfindlich auf Schwankungen des geschätzten Kompressionsgrades eines bestimmten Gebäudes, einer Fassade usw. im Stadtbild von OP reagiert.
@scottbb Ich stimme zu und deshalb habe ich den letzten Absatz hinzugefügt
#3
+4
user82065
2019-05-17 00:27:45 UTC
view on stackexchange narkive permalink

Ja, das ist möglich. Ich bin sicher, dass es einen Ansatz geben wird, dies allgemein unter Verwendung der Geometrie der Perspektive zu tun, aber hier ist ein Beispiel dafür, wie dies in einem Spielzeugbeispiel getan werden kann, um zu zeigen, dass dies möglich ist. Stellen Sie sich vor, Sie haben so etwas:

diagram of positions of things

Hier befindet sich die Kamera links auf Bodenniveau und es gibt zwei gleich große Punkte Höhe, h, durch s getrennt, wobei die Kamera einen Abstand D vom nächsten hat und alles in einer Linie liegt (ignorieren wir das Problem, dass das nächste Objekt das weiter entfernte verdecken wird: Im wirklichen Leben werden die Dinge nicht Seien Sie in einer Zeile wie dieser und die Mathematik wird schwieriger.

Sie kennen h und s, da Sie wissen, wo sich in der Stadt befindet, und Sie möchten D anhand des Fotos herausfinden: können Du? Ja, so geht's.

Stellen wir uns vor, das von der Kamera aufgenommene Foto wird in einem Abstand d vor der Kamera auf eine Leinwand projiziert, sodass die Bilder der beiden Punkte mit ihren übereinstimmen reale Positionen von der Kamera aus gesehen. Durch einfache Geometrie sind die Höhen auf dem Bild der Bilder der beiden Punkte

  • h1 = hd / D (nächster)
  • h2 = hd / (D + s ) (weiter)

Nun wissen wir also s, h (aus der Geometrie der Stadt), h1 und h2 (aus der Messung des Fotos), und wir ziehen an Ich kenne d nicht (und kümmere mich eigentlich nicht darum), und wir kennen D nicht, aber kümmern uns darum.

Jetzt können wir also ein bisschen Algebra machen:

h1 / h2 = hd (D + s) / (hdD) = (D + s) / D

Also

D = s / (h1 / h2 - 1)

Hier sind also zwei Dinge passiert, eines wird immer passieren und eines ist, weil ich ein Spielzeugbeispiel gewählt habe.

  • d ist verschwunden, und alles, was zählt, ist das -Verhältnis von h1 und h2: Dies sollte offensichtlich sein, da wir das Foto natürlich auf eine beliebige Größe vergrößern können, sodass nur die Verhältnisse der Positionen auf dem Bild von Bedeutung sein können.
  • h ist verschwunden. Dies geschieht nur, weil ich beide Punkte so ausgewählt habe, dass sie sich auf derselben Höhe befinden: wird im Allgemeinen nicht passieren.

Schließlich können Sie sich selbst davon überzeugen, dass dieser Ausdruck für D richtig ist: Wenn h1 und h2 gleich sind, wird D unendlich, und das ist richtig, weil Sie nur dann die beiden Türme auf derselben Höhe sehen, wenn du bist unendlich weit von ihnen entfernt. Wenn h1 / h2 sehr groß wird, wird D sehr klein, und das ist richtig: Wenn Sie sich einem Turm sehr nahe befinden, erscheint er auf dem Bild sehr groß.

Nun, wie gesagt: Dies ist ein Spielzeugbeispiel: Im wirklichen Leben wird nichts in einer Reihe stehen, alles wird unterschiedliche Höhen haben. &c &c. Wenn Sie jedoch genügend Punkte auf dem Bild haben, für die Sie wissen, wo sich die tatsächlichen Punkte befinden, können Sie feststellen, woher das Bild stammt (interessante Frage: Wie viele Punkte benötigen Sie? Ich vermute im Allgemeinen, dass es 3 sein werden, obwohl dies der Fall ist könnte 4 sein: Ich bin sicher, dass dies jedoch bekannt ist).

Ich bin sicher, dass es Bücher über die Mathematik der Perspektive gibt, und diese haben allgemeine Lösungen, die Sie verwenden können: Ich würde empfehlen, einige Suchvorgänge durchzuführen


Anmerkungen:

  • Ich habe angenommen, dass das optische System der Kamera keine Verzerrung verursacht - im wirklichen Leben wird es aber einige geben Für die meisten Objektive sollte es klein genug sein (versuchen Sie dies jedoch nicht mit Fisheyes oder sehr weitwinkligen Objektiven).
  • Ich habe nicht darüber nachgedacht, was Kamerabewegungen (häufig bei alten LF-Bildern) bewirken könnten - oder Vielmehr habe ich gedacht &, ich habe keine endgültige Schlussfolgerung gezogen, obwohl ich nicht denke, dass sie von Bedeutung sein werden.
#4
+2
Stan
2019-05-17 21:12:57 UTC
view on stackexchange narkive permalink

Die kurze Antwort lautet ja. Es wird jeden Tag durchgeführt.

Das Thema Photogrammetrie beinhaltet Antworten auf Ihre Frage.

Photogrammetrie ist die Messung anhand von Bildern. Photogrammetrie ist nützlich für topografische Kartierung, Architektur, Ingenieurwesen oder sogar Geologie! Es gibt viele Software-Tools für Luftbilder. Die Photogrammetrie ist für die geografische Verwendung sehr nützlich. Zum Beispiel verwenden Archäologen es auch, um Pläne für komplexe und abgelegene Orte zu erstellen.

Als ich es studierte, umfasste die Photogrammetrie das Arbeiten anhand von Luftbildern und die Übersetzung von Bildern in Wasser- und Erdmengen sowie Entfernungen und Richtungen

Später konnte ich die gleichen Techniken auf einer Makroskala auf die Mikroskala anwenden, wenn ich mit dem Elektronenmikroskop forschte. Gleiche Prinzipien, unterschiedlicher Maßstab.

Es gibt Software, mit der Sie das, was Sie wissen, auf das anwenden können, was Sie wissen möchten. Durch eine einfache Suche nach dem Begriff Photogrammetrie erhalten Sie eine genaue Quelle für eine automatisierte Überprüfung. Einige sind online.

Danke, ich werde das untersuchen. Ich hatte es vermieden, weil ich den Eindruck hatte, dass aus vielen Fotos 3D-Modelle generiert wurden, während ich (werde) ein 3D-Modell haben werde, aber möglicherweise nur ein Foto eines Features.
@pr3sidentspence Da Sie den Ort und die Abmessungen der interessierenden Themen kennen, sind Sie dem Problem, das Sie klären möchten, weit voraus. Obwohl Sie aufgrund Ihrer leicht unterschiedlichen Ressourcen und Fragen möglicherweise nicht die genaue Übereinstimmung finden, sollten Sie einen Workflow für Ihre Daten finden, der funktioniert. Viel Glück.
#5
+1
Robyn
2019-05-17 07:08:26 UTC
view on stackexchange narkive permalink

Wenn das Bild nur eine sehr geringe Perspektive hat, die einer isometrischen Zeichnung ähnelt, wurde es mit einem Teleskopobjektiv aus extrem großer Entfernung aufgenommen. EG: Sie sehen zwei dreistöckige Gebäude übereinander. Beide sind auf dem Foto ungefähr gleich groß.

Wenn das Bild eine übertriebene Perspektive hat, wurde es aus der Nähe mit einem Weitwinkelobjektiv aufgenommen. EG: Sie sehen zwei dreistöckige Gebäude. Der vordere nimmt fast die gesamte Höhe des Fotos ein, der hintere sieht winzig aus.

Und natürlich gibt es zwischen diesen beiden Extremen eine Reihe von Möglichkeiten für jede Kombination von Entfernung und Objektiv, die Sie können Denken Sie an.



Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 4.0-Lizenz, unter der er vertrieben wird.
Loading...