Ein Autofokus, so schnell wie das menschliche Auge

1858987086_ec617abb70_z

Seit es den Autofokus für Kameras gibt, ärgern sich die Benutzer über das teilweise sinnlose Hin- und Herfahren des Motors, bis endlich der Schärfepunkt gefunden wurde. Eine wissenschaftliche Arbeit belegt nun, dass die Fokkusierung viel schneller wäre, wenn man das unscharfe Bild genauer analysieren würde.

Wilson Geisler und Johannes Burge von der Universität Texas Austin haben ermittelt, dass aus einem statischen, unscharfen Bild schon genügend Informationen ermittelt werden können, um zu entscheiden, ob das Objektiv nun nach links oder rechts drehen muss, um das Bild scharfzustellen.

Bislang arbeiten die Kameras häufig nach dem Trial And Error-Prinzip und fahren die Objektive einmal weit nach vorne und einmal weit nach hinten, um mit den Methoden der Kontrastmessung die Schärfe schließlich korrekt zu ermitteln.

Burge wunderte sich, warum das menschliche Auge diese Fokus-Jagd nicht machen muss, um auf ein Objekt scharfzustellen. Das Gehirn kann offenbar aus dem unscharfen Bild genau abschätzen, ob ein Objekt weit entfernt oder nahe am Betrachter steht. Mit einem Algorithmus versuchen Burge und Geisler, diese Analyse nachzuempfinden und den Fehlfokus aufgrund der Unschärfe zu berechnen. In ihrer wissenschaftlichen Arbeit belegen die Forscher, dass ein statisches Bild dafür ausreicht, schreibt Sciencemag.

Fastcompany berichtet, dass Canons Autofokus-System bereits einen externen Sensor verwendet, um Entfernungen besser abzuschätzen. Damit soll das hilflose Herumfahren des Objektivs vermieden werden.

Würde die neue Technik in Digitalkameras eingabaut, wäre das ein Quantensprung. Eine präzise und vor allem schnellere Fokussierung hilft vor allem, sich schnell bewegende Objekte korrekt abzubilden. Wer schon einmal versucht hat, spielende Kinder zu fotografieren kennt das Problem. [Andreas Donath]

[Via Petapixel, Sciencemag, Fast Company, Pnas]

[Foto: Neil Lawler (CC BY 2.0)]

Tags :
  1. Wäre natürlich cool wenn das als Firmwareupdate auf aktuelle Kameras kommen könnte, da das ja wohl keine zusätzlichen Bedingungen an die Hardware stellt, aber irgendwie glaub ich da nicht dran…

  2. Also so eine Kamera hat ja nur ein “Auge” und nimmt dadurch ein zweidimensionales Bild auf. Der Mensch hat ja nun durch seine Augenkombi ein dreidimensionales Bild seiner Umgebung. erst dadurch kann der Mensch Entfernungen effektiv bestimmen. Versucht mal ein Augen zu verdecken und dann unbekannte Entfernungen zu bestimmen. Geht mit zwei Augen doch deutlich besser.

  3. Der Phasenautofokus, welcher in sämtlichen DSLRs zu finden ist, arbeitet schon lange nach dem Prinzip und kann bereits nach der ersten Messung sagen in welche Richtung sich das Objektiv drehen muss.

    Wirklich schneller können durch die Entdeckung nur Kameras welche über das Livebild fokussieren werden.

    Bei den anderen Kameras ist und bleibt der AF Motor das langsamste Glied in der Kette.

  4. Hmm…Ich kannte bisher nur das “Try-and-Error-Prinzip” (Versuch und Fehker-Prinzip).
    das “Trial And Error-Prinzip” ist mir jedoch unbekannt.

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Advertising