Frage:
Wurde meine Idee für eine Zeitraffertechnik schon einmal verwendet?
Karl
2020-03-30 15:13:06 UTC
view on stackexchange narkive permalink

Ich habe kürzlich über eine Zeitraffertechnik nachgedacht und möchte wissen, ob es einen Namen dafür gibt oder ob er schon weit verbreitet ist.

Ich möchte einen Zeitraffer meines Gartens bei machen 1 Bild pro Tag für eine lange Zeit, sagen wir ein Jahr (ähnlich wie in diesem Beitrag): 1 Jahr Zeitraffer meines Hinterhofs machen

Offensichtlich das große Problem bei dieser Methode ist, dass es viele Dinge gibt, die Flimmern oder Jitter im Bild verursachen, wie unterschiedliche Helligkeitsstufen von Wolken, Sonnenaufgangs- und Sonnenuntergangsmustern und Wind, der die Bäume weht.

Meine Idee war, einen Himbeer-Pi zu verwenden Tausende von Bildern pro Tag, sagen wir alle paar Sekunden eines und löschen alle an einem bestimmten Tag bis auf eines. Diejenige, die aufbewahrt wird, ist diejenige, die dem Rahmen des Vortages am nächsten kommt.

Ich habe ein einfaches Skript geschrieben, um das beste Bild für den Tag auszuwählen, indem ich Pixel für Pixel verglichen und das Bild mit der minimalen Summe der quadratischen Differenzen ausgewählt habe.

Offensichtlich muss das erste Bild dies tun manuell ausgewählt werden.

Erste Ergebnisse nach einer Woche sehen vielversprechend aus. Es konnten Frames für jeden Tag mit minimalem Unterschied zueinander abgerufen werden.

Ich möchte wissen, ob dies ein ist neuartige Technik, oder wenn sie zuvor untersucht wurde und es zusätzliche Hinweise oder Tipps gibt, die andere Leute zu dieser bestimmten Methode entdeckt haben.

Bearbeiten: Dies hat viel mehr Aufmerksamkeit erhalten als ich erwartet hatte, also werde ich eine machen Einige Anmerkungen hier zu Dingen, die häufig in den Kommentaren angesprochen werden.

  • Schatten : Wenn die Szene starke Schatten enthält, müssen die Bilder jeden Tag fast genau zur gleichen Zeit ausgewählt werden, um ruckartige Schatten zu vermeiden, die von der Sonne in verschiedenen Winkeln verursacht werden. Ich habe festgestellt, dass ich dies leicht vermeiden kann, indem ich das erste Bild auswähle, wenn die Szene nicht durch direktes Sonnenlicht beleuchtet wird, z. B. im Morgen- oder Abendlicht oder wenn es eine leichte Wolkendecke gibt. In der Regel gibt es einige Stunden pro Tag, an denen ausreichend Licht für ein gutes Foto vorhanden ist, jedoch keine direkten Schatten. Die Beleuchtung ist mittelgroß, sodass es ziemlich einfach ist, am nächsten Tag einen Rahmen mit passenden Lichtstärken zu finden.
  • Schneefall oder andere Objekte, die sich nicht sehr lange in der Szene befinden . Es ist ziemlich klar, dass nur ein Vergleich mit dem Rahmen des Vortages in der Kostenfunktion einige ziemlich große Probleme verursachen kann. Um dem entgegenzuwirken, wäre es definitiv hilfreich, mehr als einen vorherigen Frame in der Kostenfunktion zu verwenden. Was nicht klar ist, ist genau, wie das geht, da ich mir ein paar verschiedene Techniken vorstellen kann, aber ich werde mit ein paar experimentieren. Dies kann umfassen, dass die Kostenfunktion die Summe der Differenz zwischen dem vorherigen Frame und auch dem ersten Frame ist oder dass ein künstlicher Frame für die heutige Kostenfunktion unter Verwendung der modalen oder durchschnittlichen Pixel aus den Frames der letzten 5 Tage erstellt wird (Menge nicht sicher).
"Ein einjähriger Zeitraffer der meisten ähnlichen Frames könnte etwas langweilig und langweilig aussehen, da sich die Sequenz kaum" ändern "würde. Natürlich wird der Algorithmus versuchen, Änderungen so weit wie möglich zu verbergen, z. B. Änderungen der Helligkeit oder Änderungen der Position der Bäume, wenn sie vom Wind geblasen werden, aber es gibt Dinge, die sich ändern Sequenz, die der Algorithmus nicht verbergen kann, z. B. Pflanzen, die im Laufe der Zeit allmählich wachsen, was mich interessiert.
  • "Denken Sie daran, dass 365 Bilder ein sehr kurzes Video mit 30 Bildern pro Sekunde liefern." : Das ist sehr richtig, ich werde wahrscheinlich 10 fps wählen.
  • Für diejenigen, die die Ergebnisse meines Projekts sehen möchten, beabsichtige ich, den Code auf github zu setzen und ihn hier wieder zu verlinken, sobald ich ihn aufgeräumt und einige kleinere Probleme behoben habe. Ich werde auch auf die generierten Videos zurückgreifen, aber es kann natürlich lange dauern, bis diese Ergebnisse vorliegen.

    Die Antworten hier geben mir genug Ideen, um mindestens drei verschiedene Algorithmen zu implementieren, und ich werde es tun Lassen Sie den Code die Ausgaben in verschiedenen Ordnern ablegen, um sie vollständig getrennt zu halten. Es wird interessant sein zu sehen, wie sich die resultierenden Videos unterscheiden.

    Wenn Sie nur ein Bild pro Tag haben, können Sie nicht sowohl Sonnenaufgang als auch Sonnenuntergang haben ... IMHO besteht ein Problem bei Ihrer Technik darin, dass Sie Bilder auswählen können, bei denen die Schatten in entgegengesetzte Richtungen weisen, und dies kann sogar noch problematischer seinals verschiedene Lichtverhältnisse (die ausgeglichen werden können).
    @xenoid: Wenn Schatten in entgegengesetzte Richtungen gerichtet sind, entstehen Kosten, und wenn genügend Bilder pro Tag aufgenommen werden, sollten diese Kosten optimiert werden können.Mit anderen Worten, es sollte einfach genug sein, am nächsten Tag ein Bild mit einem Schatten in derselben Richtung zu finden, und wenn der Schatten in derselben Richtung liegt, wird der Unterschied minimiert, was dazu führt, dass dieses Bild höchstwahrscheinlich ausgewählt wird.
    Großartige Idee!Planen Sie, das Skript zur Verfügung zu stellen?
    @kahovius: Ja, aber bevor ich es tue, wäre es eine große Hilfe, zu wissen, ob jemand anderes etwas Ähnliches getan hat oder nicht, daher die Frage!
    In diesem Fall können Sie den Erfassungszeitraum auf einige Stunden pro Tag eingrenzen, sodass alle Ihre Schatten ohnehin ungefähr in die gleiche Richtung weisen.Aber selbst wenn ich das tue, habe ich das Gefühl, dass Sie mit ruckartigen Schatten enden werden.
    @xenoid: Ich habe festgestellt, dass es normalerweise einige Stunden pro Tag gibt, in denen genug Licht für ein gutes Foto vorhanden ist, aber das Licht ist nicht direkt, sodass es keine Schatten gibt.Zum Beispiel, wenn die Sonne direkt unter dem Horizont oder hinter Wolken steht.
    Wie geht Ihr Algorithmus mit dem ersten Schneefall um?:) :)
    @ pipe: In solchen Situationen würde es meiner Meinung nach hilfreich sein, wenn die Kostenfunktion nicht nur den Unterschied zum vorherigen Frame, sondern auch zu einigen Frames davor berücksichtigt und möglicherweise den Unterschied zwischen dem vorherigen Frame und immer dem ersten Frame summiert?
    Kosten = Diff (Frame n, Frame n-1) + Diff (Frame n, Frame 0)
    @xenoid Das OP könnte dies beheben, indem Bilder auf einen festen Zeitraum pro Tag begrenzt werden, beispielsweise zwischen 13 und 14 Uhr, in dem sich die Schattenlänge und -richtung nicht zu stark ändern und die Helligkeit wahrscheinlich gut ist.Eine kleine grundlegende Belichtungskorrektur korrigiert danach alle geringfügigen Abweichungen.
    @Graham hat das bereits in einem Kommentar gesagt (5. runter)
    Als Entwickler, der gerne fotografiert, finde ich Ihr Projekt wirklich cool.Ich möchte jedoch darauf hinweisen, dass ein einjähriger Zeitraffer der meisten ähnlichen Frames etwas langweilig und langweilig aussehen könnte, da sich die Sequenz kaum "ändern" würde.Zum Beispiel: Winter → grau und bewölkt, Sommer → hell und sonnig;Wenn Ihr erstes Bild im Winter aufgenommen wird, wählt Ihr Algorithmus möglicherweise Sommerbilder aus, bei denen das Licht nicht so hell war, z. B. solche, bei denen eine einzelne Wolke zufällig die Farben abgeschwächt hat, sodass sie besser mit den Winterbildern übereinstimmen.Ich würde erwarten, dass ein Zeitraffer von 1 Jahr den saisonalen Wandel besser darstellt.
    Ich würde vorschlagen, die "nicht verwendeten" Fotos nicht zu löschen.Wenn Ihre Fotos 10 MB groß sind, beträgt der gesamte Speicherplatz für ein Foto alle 5 Minuten bei Tageslicht 500 GB, was völlig überschaubar ist, und Sie wissen nie, was wirklich interessant in diesem "das ist anders" -Bild passieren könnte!
    Hallo, ich kann Ihre Frage nicht beantworten, aber vielleicht möchten Sie [dieses Video] (https://www.youtube.com/watch?v=WTGmxCpo89c) von Sam Morrison überprüfen.Es ist ein Video mit mehr als Tausenden von Bildern von Instagram.Es ist "ein bisschen" ähnlich wie Ihr Projekt.
    Wenn Sie morgens ein Foto auswählen und am nächsten Tag alle Fotos aus dieser Zeit aufgrund von Regen viel dunkler werden, ist ein Foto vom Nachmittag möglicherweise viel näher, obwohl die Schatten in verschiedene Richtungen weisen.Es gibt keine Garantie dafür, dass dieselben Schatten ausgewählt werden.
    Ich bin mir nicht sicher, was Sie am Ende damit machen wollen, aber denken Sie daran, dass 365 Bilder ein sehr kurzes Video mit 30 Bildern pro Sekunde ergeben.
    Würde es möglicherweise besser funktionieren, "inakzeptable" Bilder (d. H. Schwarz / nachts oder sehr früh am Morgen) zu verwerfen und dann einige, beispielsweise 100 Bilder desselben Tages, zusammen zu mitteln?Das sollte sehr merkliche Helligkeitsänderungen beseitigen und Schatten größtenteils amortisieren, da sich entweder morgens oder nachmittags etwas im Schatten befindet, normalerweise nicht beides.Es würde sich auch um bewegte Objekte oder Personen handeln, die durch die Szene gehen, die retuschiert werden, und um Lärm.Es würde auch Schnee fallen lassen (vorausgesetzt, er schmilzt nicht innerhalb von 2-3 Stunden) und eine Stunde Regen günstig bewältigen.
    @user69960: Das Problem bei der Mittelwertbildung besteht darin, dass (zum Beispiel) ein vom Wind verwehter Baum verschwommen aussieht
    Das ist richtig, aber die Auswahl eines einzelnen Frames ist nicht viel besser, es führt dazu, dass es wild herumwirbelt und Menschen und Objekte in die Existenz hinein- und herausspringen.Ich bin mir nicht sicher, ob es so wirklich besser aussieht.Sehen Sie sich das oben verlinkte Video aus Instagram-Bildern an.Aber tun Sie dies nur, wenn Sie nicht an Epilepsie leiden, wissen Sie ... es ist sogar für gesunde Menschen ziemlich störend.
    @user69960: Deshalb arbeite ich an diesem "ähnlichsten" Algorithmus, der die Vorteile von beiden haben soll.Es sollte das Ruckeln und die Menge der Dinge, die ein- und ausgehen, so weit wie möglich minimieren und auch nicht verschwommen sein.
    Ich habe bisher festgestellt (zwei Wochen Fotos), dass das Ruckeln extrem gering ist.Wenn Sie täglich Tausende von Fotos aufnehmen, finden Sie schließlich eines, bei dem die Licht- und Windverhältnisse genau richtig sind
    Sechs antworten:
    user91253
    2020-03-30 15:43:15 UTC
    view on stackexchange narkive permalink

    Nun, das ist ein sogenannter gieriger Algorithmus, der unnötig in Sackgassen führen kann, deren Wiederausstieg teuer ist. Wenn Sie stattdessen die Gesamtänderung minimieren möchten, behalten Sie alle Bilder bei und zeichnen für jedes Bild a) das beste vorhergehende Bild für eine optimale Sequenz auf, die hier ankommt. B) die Kosten für die Ankunft hier über die optimale Sequenz.

    Sie können Vergleiche beschneiden, indem Sie feststellen, dass jede Sequenz, die bereits teurer als der aktuelle optimale Kandidat ist, ohne die neueste Entfernung hinzuzufügen, ohne einen tatsächlichen Vergleich gelöscht werden kann. Bilder, die in "toten Sequenzen" enden, die niemals Teil einer optimalen Sequenz sein können, unabhängig davon, was als nächstes kommt, können insgesamt beschnitten werden. Auf diese Weise wird die Anzahl der aktiven Bilder, die beibehalten werden müssen, begrenzt. Aufgrund der großen Ähnlichkeit Ihrer Bilder kann es jedoch lange Zeit zu "engen Rennen" kommen, bei denen zahlreiche Kandidaten aktiv bleiben.

    +1 Das macht vollkommen Sinn und ist eine großartige Ergänzung zu der Technik, an die ich nicht gedacht habe.Ohne eine solche Einschränkung kann es über einen langen Zeitraum zu einer Drift in einen unerwünschten Zustand kommen, beispielsweise zu einer Drift in die Nacht.Obwohl es die Frage nicht genau beantwortet: Ist Ihnen bewusst, dass diese Technik bereits von anderen bekannt oder studiert wurde?
    Dieser Ansatz ist ein guter Kandidat für die sogenannte dynamische Programmierung.Um den Pfad mit der minimalen Differenz zu finden, um zu Tag 10 zu gelangen, addieren Sie einfach die Schrittkosten zu den Kosten für den Pfad mit minimaler Differenz für jede Auswahl von Tag 9. Um diese Pfade mit minimaler Differenz zu Tag 9 zu finden, addieren Sie die Schrittkosten zum Minimum-Differenzpfade kosten für Tag 8 und so weiter.Mit N Bildern zu jedem der T Zeitpunkte ist dies eher O (TN ^ 2) als die naive Methode O (N ^ T), um jede Sequenz von Grund auf neu zu erstellen.
    Eine äquivalente Möglichkeit (zur dynamischen Programmierlösung von @NuclearWang's) besteht darin, ein Diagramm von O (TN) -Knoten mit O (TN ^ 2) -Kanten zu erstellen und dann den kürzesten Pfad zu finden.Der Vorteil dieser Vorgehensweise besteht darin, dass Sie nur die Nachbarn der Knoten berechnen müssen, die während der Suche tatsächlich erweitert werden.
    Mit anderen Worten, der Dijkstra-Algorithmus
    scottbb
    2020-03-30 17:40:02 UTC
    view on stackexchange narkive permalink

    Was Sie beschreiben, ähnelt dem, was Astrofotografen Lucky Imaging (oder Speckle Imaging) nennen. Die Idee hinter der glücklichen Bildgebung besteht darin, mehrere (Hunderte, sogar Tausende) sehr kurze Belichtungen aufzunehmen und nur die wenigen Bilder beizubehalten, die durch atmosphärische Verzerrungen am wenigsten gestört zu sein scheinen.

    Im Allgemeinen mehr Bilder, die später benötigt werden, um die besten auszuwählen, werden (manchmal spöttisch) Spray & beten genannt. =)

    In Bezug auf die Neuheit Ihres speziellen Anwendungsfalls haben Videografen Zeitraffer erstellt, indem sie Segmente hochauflösenden Videos für jede Zeitraffer-Frame-Periode aufgezeichnet und entweder die Frames jedes Videosegments gemittelt haben oder wählen Sie aus jedem Segment den besten Frame aus.

    Pray & Spray: Die Gotofotografie-Methode jeder in der Luft erhobenen Kamera, um ein Bild von der Aktion zu erhalten.Ich habe im College während der Fußballspiele einige großartige Aufnahmen davon gemacht, aber denken Sie daran - Sie hatten nur 36 Chancen.
    @J.Hirsch damals am Filmtag konnte man einen Profi von den Hobbyisten unterscheiden, weil er viele Aufnahmen gemacht hat.Im digitalen Bereich können Sie einem Profi jedoch anhand der wenigen Aufnahmen sagen, die er machen muss.Ich schäme mich zu sagen, dass ich manchmal nur den Auslöser und das Maschinengewehr gedrückt halte, bis die Pufferverzögerung zu nervig wird ...
    ... oder nehmen Sie die besten * Pixel * aus jedem Bild, um eine Definition von "am besten" zu erhalten.Die Auswahl des gebräuchlichsten Werts (Modus) ist ein Ansatz zum Entfernen von Hindernissen im Vordergrund und zum Erstellen eines zusammengesetzten Bilds eines Hintergrunds (z. B. Entfernen von Touristen aus geplatzten Fotos eines berühmten Wahrzeichens).Im Fall von OP ist "am besten" derjenige, der am besten zu der von ihnen verwendeten Ähnlichkeitsfunktion passt.
    @AC: Alternativ können Sie den Durchschnittswert eines Pixels in allen Aufnahmen ermitteln, alle Pixel in allen Aufnahmen identifizieren, die sich erheblich unterscheiden, und dann den Durchschnitt aller Pixel aller Aufnahmen mit Ausnahme derjenigen, die vom Durchschnitt abweichen, ermitteln und das Gewicht von reduzierendiejenigen, die in der Nähe der ausgeschlossenen sind.
    @scottbb Ich stimme Ihnen voll und ganz zu.Es war immer 3: 1 für Film und jetzt ist es 1: 3 für Digital.Ich hasse es immer noch viel mehr, digital zu bearbeiten als im Film.Es gibt einfach so viel mehr.
    jpa
    2020-03-31 20:28:10 UTC
    view on stackexchange narkive permalink

    Viele Zeitrafferkameras tun dies bereits, jedoch auf einer kürzeren Zeitskala. Zum Beispiel erwähnt GoPro in der TimeWarp-Dokumentation:

    Um die besten Ergebnisse zu erzielen, versuchen Sie es mit einer Geschwindigkeit von 10x und mehr, wenn Sie Aufnahmen machen, die möglicherweise holprig werden. Eine höhere Geschwindigkeit bietet häufig eine bessere Stabilisierung, da TimeWarp mehr Frames zur Auswahl hat.

    Dies klingt so, als würde es die Frames mit der geringsten Bewegung aus dem vorherigen Frame auswählen. In ähnlicher Weise werden in dieser Microsoft-Veröffentlichung Echtzeit-Hyperlapse-Erstellung über optimale Frame-Auswahl:

    Frames aus dem Eingangsvideo optimal ausgewählt, die am besten zu einer gewünschten Zielbeschleunigung passen Dies führt auch zu einer möglichst reibungslosen Kamerabewegung.

    Zusätzlich zum Ähnlichkeitskriterium wählen sie die stabilste Bewegungsgeschwindigkeit zwischen Bildern aus. Wenn sich die Kamera bewegt, wird die Technik normalerweise als "Hyperlapse" bezeichnet, aber ich konnte keine Beispiele dafür finden, die auf stationäre Kameras und 24-Stunden-Intervalle angewendet werden.

    Akzeptiert aufgrund der Verknüpfung mit der Microsoft-Forschung, die dem Algorithmus, den ich zu entwickeln versuche, am ehesten entspricht, haben sie nur eine sich bewegende Kamera anstelle einer stationären verwendet.
    Nat
    2020-04-01 23:43:50 UTC
    view on stackexchange narkive permalink

    tl; dr - Klingt nach einer merkmalsvektorisierten Videoaufzeichnung, bei der kleinere / vorübergehende Merkmale herausgefiltert werden und ein Video erstellt wird, das die konzeptionelle Entwicklung des Szene im Laufe der Zeit.


    Sie möchten wahrscheinlich ein Video über die Entwicklung der Hauptfunktionen.

    Wenn Sie nur ein Zeitraffervideo mit Bildern wünschen, können Sie dies einfach tun das.

    Sie fragen jedoch nach einer Zeitraffersequenz mit minimalen Änderungen zwischen den Frames. Ich vermute, was Sie wirklich wollen, ist ein Video, das sich auf die übergreifende Erzählung konzentriert, die von der Kamera aufgenommen wurde. Dies ist:

    • Sie möchten erfassen, wie sich die Hauptmerkmale in der Szene im Laufe der Zeit ändern.

    Sie möchten nicht , dass das Video nervös aussieht, weil es beispielsweise an einem Tag bewölkt ist, aber nicht am nächsten oder zufällig

    Nehmen wir zum Beispiel an, es gibt eine Uhr in der Szene:

    • Sie möchten erfassen, wie sich das Erscheinungsbild dieser Uhr im Laufe der Zeit ändert, wenn beispielsweise ihre Farbe im Sonnenlicht heller wird oder wenn Kratzer / Risse auftreten Zeit.

    • Sie möchten nicht sehen, wie die Uhrzeit zufällig von Bild zu Bild springt.

    Noch einen Schritt weiter gehen:

    • Sie möchten in der Lage sein um das zeitraffervideo mit einer höheren bildrate abzuspielen, wobei die zeit der uhr reibungslos übergeht, als wäre dies ein echtzeitvideo, obwohl die kamera ne Ver tatsächlich aufgenommene Bilder der Uhr zu all diesen Zeiten.

    Mit anderen Worten, Sie möchten wahrscheinlich nicht, dass der Computer zufällige Pixel aufzeichnet, wie in einer Bitmap, sondern Sie möchten Ein Video, das aus konzeptionellen Komponenten besteht, die der Computer anzeigen kann.


    Generieren Sie ein vektorisiertes Video, indem Sie Features aus den rohen Bitmaps extrahieren.

    Feature-Extraktion isoliert Elemente von einer Szene.

    Haben Sie beispielsweise eine dieser " TV-Sendungen vom Typ Law & Order ", in denen jemand, der Zeuge eines Verbrechens ist, einen Verdächtigen einem Skizzenkünstler der Polizei beschreibt, der dann versucht, den Verdächtigen zu zeichnen?

    Sie möchten einen Algorithmus Das ist Zeuge der Rohdaten von der Kamera und erzeugt dann eine Videodatei, die beschreibt , was es gesehen hat, anstatt die Pixel buchstäblich zu kopieren / einzufügen. Dann möchten Sie eine Software, die eine Szene basierend auf der Beschreibung dieser Videodatei animiert, ähnlich wie ein Polizeiskizzenbildner, der jeden Frame basierend auf der Erinnerung eines Zeugen zeichnet, anstatt eines herkömmlichen Videoplayers, der nur farbige Punkte anzeigt.

    Filtern Sie die verrauschten Funktionen heraus, um das gewünschte Video zu erhalten.

    Wenn Sie das Rohvideo vollständig vektorisieren, erhalten Sie nur eine neue Videodatei, die genau dasselbe zeigt. nur in einem anderen Format gespeichert / verarbeitet.

    Die Magie besteht darin, dass das Video ohne kleinere Funktionen angezeigt werden kann. Angenommen, eine zufällige Person tritt in einer Einstellung vor die Kamera. Die Anwesenheit dieser Person in diesem Rahmen ist eine Funktion, die Sie vermutlich ausschließen möchten. Sie müssen dem Video-Player also nur mitteilen, welche Funktionen angezeigt werden sollen. Vermutlich möchten Sie Funktionen anzeigen, die sich reibungslos über eine nicht triviale Anzahl von Frames erstrecken.


    Technisch Implementierung: Welche Software soll verwendet werden?

    Ich werde es vermeiden, bestimmte Software, Bibliotheken usw. zu empfehlen. Teilweise, um faul zu sein, und teils, weil dies eine aufkommende Praxis ist, bei der sich die Dinge wahrscheinlich schnell ändern.


    Zusammenfassung

    Klingt so, als ob Sie aus einem Zeitraffer von Standbildern funktionsvektorisierte Videos generieren möchten, mit denen Sie Videos der konzeptionellen Zeitentwicklung von anzeigen können die Szene ohne die lauten Ablenkungen.

    In diesem Bereich wird viel geforscht, da es in vielen Dingen nützlich ist. Zum Beispiel könnte das Vektorisieren einer Reihe von Bildern aus den Kameras eines selbstfahrenden Autos ein Modell der Welt um das Auto herum erzeugen, das es ihm ermöglicht, korrekte Fahrentscheidungen zu treffen. Ähnlich wie Sie kümmern sich selbstfahrende Autos nicht um den Lärm. Sie wollen nur die wichtigen Merkmale der Szene verstehen, z. Wo sich Objekte befinden, anstatt exakte Daten auf Pixelebene aus Rohbildern.

    Es wäre schön zu sehen, wie jemand dies auf Zeitraffer-Videografie anwendet!

    +1 für die beredte Beschreibung der Dinge, die ich tue und nicht will.Obwohl ich mit der von Ihnen beschriebenen Lösungstechnik nicht vertraut genug bin, um eine Implementierung mit den hier beschriebenen begrenzten technischen Details durchzuführen.
    Zillakon
    2020-04-01 22:26:22 UTC
    view on stackexchange narkive permalink

    Da Sie einen Himbeer-Pi verwenden, haben Sie darüber nachgedacht, ihn an einige Fülllichter anzuschließen. Sie können es so einrichten, dass die Lichter für einige Bilder nur eingeschaltet werden, wenn Sie tagsüber noch viele Aufnahmen machen möchten. Zumindest auf diese Weise hat Ihre Pflanze garantiert eine normale Lichtmenge, unabhängig davon, was im Hintergrund des Bildes vor sich geht.

    Gute Idee, aber ich wollte einen Algorithmus erstellen, der nicht auf externe Unterstützung angewiesen ist, damit er auf eine größere Bandbreite von Szenarien angewendet werden kann.Was ist zum Beispiel, wenn ich in einer Stadtwohnung wohne und einen guten Blick auf einige laufende Bauprojekte habe und einen Zeitraffer von Wolkenkratzern möchte?
    Buttonwood
    2020-04-02 20:35:54 UTC
    view on stackexchange narkive permalink

    In Bezug auf dauerhafte Zeitraffer ist mein Held auf dem Gebiet Joe DiGiovanna. Vom Ufer von Weehawken, New Jersey, macht er alle 30 Sekunden ein Foto, während er auf NYC ausgerichtet ist (2.880 Bilder pro Tag). Tatsächlich ist es ein 30-jähriges Projekt, das er vor mehr als 4 Jahren gestartet hat. Verwenden eines ardunio-basierten Intervallmessers, eines dedizierten Laptops, einer Notstromversorgung usw. Siehe seine Website oder einen Bericht im CNN-Stil über ihn, einschließlich Beispielen wie dem 13. Juli 2019 ( ein größerer Stromausfall in der Stadt) oder der Aufstieg von Wolkenkratzern.



    Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 4.0-Lizenz, unter der er vertrieben wird.
    Loading...