Jump to content

Sony A7C und der undramatische Himmel


Empfohlene Beiträge

vor 3 Stunden schrieb explorer:

Das Objektiv macht das Foto, erst in zweiter Linie die Kamera. Das Merkmal klassischer Fotografie werden in Zukunft Objektive sein. Deren Physik lässt sich nur bedingt simulieren. Ob diese hintendran etwas hängen haben was einem Smartphone oder einer DSLM ähnelt spielt keine Rolle. Ein 50/1.2 GM wird niemals in der Bauart eines Smartphones integriert werden können, zumindest nicht nach heutigem Stand der Physik.

Nee, denn der Fotograf macht das Foto! :classic_wink:

Auch wenn ich es selber nicht mag, das mit den Objektiven wird zukünfig immer weniger ein Thema sein, denn schon heute werden viele Effekte in den Kameras simuliert.
Das ist auch die einzige Chance bei den SPs um den Bildeindruck eines 1.2 50ers kopieren zu können.
Die Frage ist demnächst einfach: Sieht man es im Ergebnis oder nicht.
Wenn die Frage mit "nicht" beantwortet ist, dann ist doch alles klar.

Auch klar ist, daß die zukünftigen Fotografen dadurch anders fotografieren werden, da die Technik ihnen viel Denkarbeit abnimmt.
Wenn man es positiv sieht, dann kann man sich so voll auf die Bildkomposition konzentrieren!

Ich schreibe das aus Überzeugung, weil ich glaube, daß es so oder so ähnlich kommt.
Mein Geschmack wäre das zwar nicht (wie Eurer vermutlich auch nicht), aber die Entwicklung geht nunmal weiter und die KI von Luminar & Co. wird kurzfristig in SPs und auch unseren Kameras zu finden sein.

bearbeitet von D700
Link zum Beitrag
Auf anderen Seiten teilen

Wenn ich mir so anschaue, was in der Vergangenheit über die Gegenwart so alles spekuliert wurde, dann erübrigen sich die Fragen, was in Zukunft passieren wird. Die kurzfristigen Entwicklungen lassen sich abschätzen, aber nur weil sie andernorts bereits Realität sind (das künstliches Bokeh gibt es beim Smartphone ja schon). Wie es mittel- oder gar langfristig mit der Photographie weitergeht, wir werden es sehen - oder eben nicht. Ich bin da ziemlich zuversichtlich. In diesem Sinne, they promised us jetpacks...

Link zum Beitrag
Auf anderen Seiten teilen

44 minutes ago, Octane said:

Das ist auch nicht nötig. In  Zukunft erziehlt man mit Software denselben Effekt.

Nein, ganz sicher nicht. Der Software fehlen immer Echtzeit Parameter die man nicht mitnehmen kann.

Wenn dann werden die Objektive von plenoptischen / lichtfeld Kameras abgelöst. Aber hier gibt es auch physikalische Probleme. 
 

Am wahrscheinlichsten ist, das irgendwann die Simulation am Rechner nicht mehr von der Realität unterscheidbar sein wird. Dann wird man auf viele Formen der Fotografie verzichten können. Wirklich interessant wird das Ganze mit funktionierender neuronaler Schnittstelle. Allerdings ist auch das kein Ersatz für das Lichtsammeln vor Ort.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

3 minutes ago, Helios said:

Grundsätzlich ist das bereits heute Realität, Echtzeit-Tiefenmapping in Kombination mit optischen Daten. Mit zunehmender Rechenleistung wird das immer besser und immer weniger unterscheidbar von einem physikalischen Objektiv. 

Tiefenmapping ist bei der Frage ob Objektive überflüssig werden aber nur ein ganz ganz rudimentärer Schritt.

Was ich meine ist eine 1:1 Simulation der Realität. Davon sind wir noch so weit entfernt das wir die Komplexität buchstäblich noch nicht einmal beschreiben können. Geschweige denn erfassen und simulieren.

So lange das nicht gegeben ist werden Objektive nicht vollständig ersetzt. Wir alle die hier schreiben werden das wahrscheinlich nicht erleben. 

Link zum Beitrag
Auf anderen Seiten teilen

Smartphone Software hin oder her, was mir nebst raw Dateien z. B. Einer A7rIV fehlen würde ist einfach die Handhabung der Kamera, des Fotos machen an sich. Das Ding muss irgendwie kastenförmig sein und entsprechede Knöpfe.... Handhabung. Darum fotografiere ich mit dem Smartphone so gut wie gar nicht richtig. Sei es noch das Beste. 

Link zum Beitrag
Auf anderen Seiten teilen

15 hours ago, wasabi65 said:

Meine Realität ist aber nicht zweidimensional…ich denke grad Objektive wie ein 50mm (egal welcher Apertur) werden eher heute als morgen ersetzt werden können. Andere eher später (Blickwinkel wie etwa 800mm KB).

Mir geht es um den Vorgang des Fotografierens an sich. Dieser wird meiner Meinung nach noch lange Objektive benötigen. Davon unterscheiden würde ich das Kreieren von Bildern zb am PC, der Workstation etc, die schon jetzt "realer" Fotografie im Ergebnis sehr sehr nahe kommen. Also mit Tools wie Maya oder 3ds max. Mit solchen Bildern sind das Internet und Zeitschriften heute bereits voll, zb in der Autobranche werden da sehr häufig Hybride aus realem Hintergrund und generiertem Fahrzeug verwendet. Aber hier ging es ja um die Frage wie Smartphone und eine A7c zueinander stehen. Und ich denke das Fotografieren wird noch lange auf Objektive angewiesen sein, meiner Meinung nach eben bis zu dem Punkt wo man in Echtzeit Bilder aus einer 1:1 Simulation greifen kann.

Link zum Beitrag
Auf anderen Seiten teilen

vor 17 Stunden schrieb explorer:

Tiefenmapping ist bei der Frage ob Objektive überflüssig werden aber nur ein ganz ganz rudimentärer Schritt.

Es geht doch gar nicht darum, ob Objektive überflüssig werden, sondern ob sowas wie ein 50/1,2 durch Software ersetzbar, also simulierbar ist. Und das ist natürlich in noch recht überschaubarer Qualität bereits heute der Fall, weil die Kombination aus relativ flachen optischen Daten (also einem Handybild) mit Tiefeninformationen bereits praktiziert wird. Es geht "nur" noch um die immer weitergeführte Erhöhung der Qualität durch Einbindung von mehr oder besseren Daten und Rechenleistung. Ein "ganz sicher nicht" ist daher ziemlich unwahrscheinlich.

Meines Erachtens ist die Frage genauso wie die Diskussion weitgehend überflüssig, ich habe das hier schon erwähnt. Denn sie betrifft vornehmlich die Entwicklung im Bereich der Bildproduktion, also den Nutzern, denen es um die 90% des Bildes geht. Jene, denen es um den Akt des Photographierens selbst, den letzten 10 Prozent der Aufnahme, gegebenenfalls auch der Phototechnik als solche geht sind eine ganz andere Zielgruppe, die absehbar nicht von derartigen Entwicklungen erfasst wird, weil es dafür bisher nur Ansatzweise perspektiven gibt. Die Tatsache, dass diese Gruppen vor einigen Jahre für ein Jahrzehnt mal einen hohen Überlappungsgrad aufwiesen mag für Irritationen bei der Bewertung sorgen, ändert aber nichts daran, dass es unterschiedliche Zielsetzungen sind die entsprechend unterschiedliche Produkte benötigen. 

Wenn ich mich hier im Forum umschaue, oder, damit es nicht despektierlich verstanden wird, auf meiner eigenen Festplatte, dann stelle ich fest, dass bei vielen anderen genauso wie bei mir selbst der Wunsch, selbst Belanglosigkeiten mit maximaler Technik abzulichten, doch hinreichend genug ausgeprägt ist um einen Fortbestand des Hobbys zu sichern. Was ich beruflich brauche mag in näherer Zukunft mal viel einfacher, leichter, softwarelastiger sein, aber privat werde ich auch in dreißig Jahren noch mit einem Photoapparat und Objektiven hantieren. Und allein werde ich damit auch nicht sein. Den Rest, wie gesagt, wird man sehen.

Link zum Beitrag
Auf anderen Seiten teilen

On 9/17/2021 at 2:17 PM, Helios said:

Es geht doch gar nicht darum, ob Objektive überflüssig werden, sondern ob sowas wie ein 50/1,2 durch Software ersetzbar, also simulierbar ist. Und das ist natürlich in noch recht überschaubarer Qualität bereits heute der Fall, weil die Kombination aus relativ flachen optischen Daten (also einem Handybild) mit Tiefeninformationen bereits praktiziert wird. Es geht "nur" noch um die immer weitergeführte Erhöhung der Qualität durch Einbindung von mehr oder besseren Daten und Rechenleistung. Ein "ganz sicher nicht" ist daher ziemlich unwahrscheinlich.

Meines Erachtens ist die Frage genauso wie die Diskussion weitgehend überflüssig, ich habe das hier schon erwähnt. Denn sie betrifft vornehmlich die Entwicklung im Bereich der Bildproduktion, also den Nutzern, denen es um die 90% des Bildes geht. Jene, denen es um den Akt des Photographierens selbst, den letzten 10 Prozent der Aufnahme, gegebenenfalls auch der Phototechnik als solche geht sind eine ganz andere Zielgruppe, die absehbar nicht von derartigen Entwicklungen erfasst wird, weil es dafür bisher nur Ansatzweise perspektiven gibt. Die Tatsache, dass diese Gruppen vor einigen Jahre für ein Jahrzehnt mal einen hohen Überlappungsgrad aufwiesen mag für Irritationen bei der Bewertung sorgen, ändert aber nichts daran, dass es unterschiedliche Zielsetzungen sind die entsprechend unterschiedliche Produkte benötigen. 

Wenn ich mich hier im Forum umschaue, oder, damit es nicht despektierlich verstanden wird, auf meiner eigenen Festplatte, dann stelle ich fest, dass bei vielen anderen genauso wie bei mir selbst der Wunsch, selbst Belanglosigkeiten mit maximaler Technik abzulichten, doch hinreichend genug ausgeprägt ist um einen Fortbestand des Hobbys zu sichern. Was ich beruflich brauche mag in näherer Zukunft mal viel einfacher, leichter, softwarelastiger sein, aber privat werde ich auch in dreißig Jahren noch mit einem Photoapparat und Objektiven hantieren. Und allein werde ich damit auch nicht sein. Den Rest, wie gesagt, wird man sehen.

Kennst du tools wie Zemax Opticstudio und Code v? Das sind Tools die bei der Gestaltung von Linsen und optischen Systemen Verwendung finden. Die sind sehr komplex, und benötigen schon extrem viel Rechenleistung. Für eine Simulation eines 50/1.2 müsste man die Parameter aus diesen Tools in Echtzeit auslesen und auf die Generierung des Bildes anwenden. Für eine in der Praxis einsetzbare Lösung müsste das ganze zudem in Sekundenbruchteilen passieren. Theoretisch ist das alles gelöst, aber wir sind noch extrem weit von einer Implementierung entfernt. Realistischerweise braucht man funktionierende Quantencomputer, bzw mit jetzt bekannten Mitteln ist eine Implementierung nicht möglich. Das du die benötigte Power unterschätzt ist nicht ungewöhnlich, das passiert zu 99,9999% bei solchen Diskussionen im Netz. 

Sagen wir mal dieses Hindernis wird überwunden. Selbst dann bleibt noch ein Problem. Ein Objektiv zeichnet sich auch dadurch aus das es eben nicht mathematisch perfekt rendert, und vor allem das es Abweichungen von Exemplar zu Exemplar gibt. In einer Simulation müssen aber parameter festgelegt werden, ansonsten ist die Komplexität nicht beherrschbar. Man wird sich auf ein perfektes 50/1.2 festlegen. Bzw selbst wenn kleine Fehler miteingebaut werden, so kann man doch keine beliebige Varianz implementieren, denn dann müssten vor jedem einzelnen Bild alle Parameter neu festgelegt und berechnet werden, was absolut nicht umsetzbar ist. Ein nicht simuliertes Objektiv zeichnet sich eben auch durch seine Einzigartigkeit aus. Simuliert hätte jeder das gleiche 50/1.2, und damit hätte dann im Grunde keiner ein 50/1.2.

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb explorer:

Kennst du tools wie Zemax Opticstudio und Code v? Das sind Tools die bei der Gestaltung von Linsen und optischen Systemen Verwendung finden. Die sind sehr komplex, und benötigen schon extrem viel Rechenleistung. Für eine Simulation eines 50/1.2 müsste man die Parameter aus diesen Tools in Echtzeit auslesen und auf die Generierung des Bildes anwenden.

... was fürn Quatsch. Selbst mit Zemax kannst nicht simulieren, was nicht in die Linse reinkommt. So ein 50/1,2 hat eine Apertur von mehr als 40mm. eine einzelne Handylinse hat dagegen nur ein paar Millimeter. So ein 50/1,2 schaut ja so ein bißchen über oder neben oder hinter die fotografierte Nase, das tut die Handylinse nicht. Die sieht garnicht, dass da vielleicht ein dicker Pickel ist, im Bokeh des 50er zeigt er sich. Soll das Handy jetzt für jede Nase einen Pickel annehmen?

... was du machen könntest: Das Handy durch die Luft schwenken und damit die Nase aus verschiedenen Perspektiven aufnehmen. Oder viele kleine Linsen über die Handyfläche verteilen. Dann brauchst du eher eine Tomografie-Software, aber kein Zemax.

... nein, da mache ich jetzt keine Simulation zu. Obwohl ich mein Zemax heute gerade geupdated habe.

Link zum Beitrag
Auf anderen Seiten teilen

Also bei allem Verständnis, aber das ist zu viel ot. Ich bewundere auch Euer Fachwissen @explorer, @fotoköbes, aber ehrlich gesagt, ich hoffe das Ihr im Verhältnis dann auch so adäquat dazu fotografieren könnt. Wäre dann mehr als für eine Ausstellung gut (vorsicht sarkastisch) , bitte nicht so ernst nehmen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 7 Stunden schrieb KDKPHOTO:

Wäre dann mehr als für eine Ausstellung gut

Ja, ich entwickle (auch) Objektive für Leute, die Bildmaterial für Ausstellungen machen. Bzw. fürs Kino. War zwar nicht die A7C, aber irgendeine andere Sony 4K-Kamera. Insofern wirklich ot. Und in diesem Thread hier ging es ja eher nicht ums fotografieren, sondern um die Unterschiede Handy-Foto zu DSLM-Foto. Also mecker nicht.

Link zum Beitrag
Auf anderen Seiten teilen

@fotoköbes Naja Thema: Sony A7C und der undramatische Himmel 

Belichtungs / Aufnahmeprobleme / Austausch mittels Software. Hat wohl nichts mit Softwaresimulation von Objektiven zu tun, oder deren Entwicklung für Fotografen die Ausstellungen machen. Und weil andere (und auch ich) eine kurze OT Bemerkung machen, muss man nicht langatmig fortfahren.

Nochmals Eure Ausführungen sind interessant, besser in einem eigenen Thread, aber nicht hier.

  • Like 1
  • Thanks 2
Link zum Beitrag
Auf anderen Seiten teilen

Ich schaue hier doch ab und an mal rein, nicht wegen des irrwitzigen undramatischen Himmels,...sondern um den einzig alleinigen Zusammenhang zur A7C  zu entdecken.

Sollte es den nicht geben bitte ich die Überschrift zu ändern, bevor unbedarfte in eine 7C Falle tappen....

bearbeitet von mikuz
  • Thanks 1
  • Haha 1
Link zum Beitrag
Auf anderen Seiten teilen

@mikuz War ja auch lange gut bis hier einer auf die Idee kam sein eigenes Ding zu machen und das dann noch "komisches Forum" nennt wenn er darauf hingewiesen wird. 

vor 4 Stunden schrieb fotoköbes:

... Komisches Forum.

Wenn es dir zu komisch wird kannst du deinen Account ganz einfach und unkompliziert vom Admin löschen lassen 😉 Haben andere auch schon gemacht, schick ihm einfach eine PN, dann geht das recht schnell. Kann einem ja nicht überall gefallen 🙄 

  • Like 1
  • Haha 1
Link zum Beitrag
Auf anderen Seiten teilen

Wie schon manchmal gesagt: Wir haben hier einen netten, freundlichen Umgang miteinander und das gefällt uns und das soll auch so bleiben. Wie so oft "Der Ton macht die Musik".

Vergrault wird hier niemand, aber es wäre schön sich an die Regeln und den Umgang zu halten, sachliche Kritik ist immer erlaubt und gewünscht. 

Link zum Beitrag
Auf anderen Seiten teilen

On 9/22/2021 at 9:23 PM, fotoköbes said:

... was fürn Quatsch. Selbst mit Zemax kannst nicht simulieren, was nicht in die Linse reinkommt. So ein 50/1,2 hat eine Apertur von mehr als 40mm. eine einzelne Handylinse hat dagegen nur ein paar Millimeter. So ein 50/1,2 schaut ja so ein bißchen über oder neben oder hinter die fotografierte Nase, das tut die Handylinse nicht. Die sieht garnicht, dass da vielleicht ein dicker Pickel ist, im Bokeh des 50er zeigt er sich. Soll das Handy jetzt für jede Nase einen Pickel annehmen?

... was du machen könntest: Das Handy durch die Luft schwenken und damit die Nase aus verschiedenen Perspektiven aufnehmen. Oder viele kleine Linsen über die Handyfläche verteilen. Dann brauchst du eher eine Tomografie-Software, aber kein Zemax.

... nein, da mache ich jetzt keine Simulation zu. Obwohl ich mein Zemax heute gerade geupdated habe.

Da wir hier ja ot sind, nur ganz kurz: ich bin derjenige der hier sagt das Objektive nie vollständig ersetzt werden. Ich gebe im von dir als „Quatsch“ abgekanzelten Beitrag also Devils Advocate. Bezüglich Quatsch: das worüber ich schreibe ist mathematisch alles gelöst, es gab dazu mehrere Veröffentlichungen in den Nuller Jahren. Es geht auch nicht darum direkt Zemax zu verwenden, sondern darum das man solche Parameter benötigen würde. Und In Echtzeit verarbeiten. Darum sagen ich ja, wir sind meilenweit davon entfernt. Eben als Gegenargument zu einem unwissentlich hingeworfenen „das 50/1.2 macht in Zukunft alles der Computer“.

edit: zum offtopic Vorwurf. Ich verstehe das und werde hier auch nichts mehr zum Thema schreiben. Ich bitte nur darüber nachzudenken ob das was ich geschrieben habe wirklich so offtopic ist. Im Grunde sind das doch genau die Prozesse nach denen der Threadersteller fragt. Also warum sein Handy so viel dramatischere Himmel macht als die A7c. Die Antwort ist natürlich bracketing. Aber zu Ende gedacht kommt man eben an den Punkt den ich beschreibe. Wo es irgendwann darum geht ob man die optischen Eigenschaften von Objektiven in Echtzeit simulieren kann.

bearbeitet von explorer
Link zum Beitrag
Auf anderen Seiten teilen

@explorer: Das angesprochene Problem hat nichts mit irgendeinem Objektiv zu tun, sondern ist eine Belichtungsfrage. Der Vergleich eines Handy und der 7 C war Ausgangspunkt. Falsch belichtet passiert das mit jeder Kamera, unabhängig des Objektives. 

Erneut mein Hinweis: Eure Ausführungen und weitere Diskussionen finde ich sehr interessant. M.M.n. wäre ein eigener Thread dafür gut geeignet.

Link zum Beitrag
Auf anderen Seiten teilen

Diskutiere mit uns!

Du kannst direkt deinen ersten Beitrag schreiben und dich später registrieren. Falls du schon einen Account hast, kannst du dich hier anmelden, um deinen Beitrag zu veröffentlichen.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...