
KI in der Fotografie: Tipps, Anwendungen und Tools
Künstliche Intelligenz und maschinelles Lernen in der Fotografie - was bringt die KI für Fotograf*innen?
Künstliche Intelligenz findet ihren Weg in immer mehr Bereiche unserer digitalen Gesellschaft und natürlich werden auch Fotograf*innen mit dem Gedanken leben müssen, dass KI und Fotografie bald noch stärker zusammenrücken.
Dass das aber für versierte Künstler*innen nicht das Ende der Welt oder der Karriere bedeutet, sondern - im Gegenteil - viele Chancen eröffnen kann, das zeigt ein näherer Einblick.
Dieser Guide zeigt Möglichkeiten der KI in der Fotografie auf und beleuchtet auch einige der Sorgen, die viele Fotograf*innen sich machen.
Was genau ist KI und wann spricht man tatsächlich von Künstlicher Intelligenz
Der Begriff KI oder das englische Synonym AI wird derzeit inflationär gebraucht, denn in der Tech-Branche gibt es einen regelrechten Hype um die Idee vom KI-Einsatz in den verschiedensten Bereichen. Beim Gedanken an KI kommen vielen Menschen vor allem Bilder von Artificial General Intelligence (AGI) in den Sinn, also selbst denkenden Maschinen. Dies ist die Vision, die die Science Fiction seit Jahrzehnten malt und von Mr. Data bis hin zum Terminator oder Wall-E gibt es zahlreiche inspirierende oder Furcht einflößende Beispiele zu selbst denkenden Maschinen.
Der heutige Begriff AI ist davon allerdings so weit entfernt wie Öl und Pinsel von einer Sony Alpha 9 II.
Künstliche Intelligenz als Begriff ist dichter mit Machine Learning verbunden, also dem Einsatz großer Datenmodelle und der damit einher gehenden Generierung von Datenausgaben.
Emily M. Bender nannte diese Art KI in ihrem Essay "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?" stochastische Papageien, denn diese KI plappert das nach, was ihr vorgegeben ist, ohne wirklich die Bedeutung dahinter zu verstehen. Je größer die Datenmenge dahinter ist, desto besser kann die KI dies einschätzen. Dennoch handelt es sich bei dieser Art von KI-generiertem Content nur um die möglichst wahrscheinliche Annäherung einer Maschine an ein menschliches Thema.
Es sind Texte und Bilder, die den Eindruck erwecken sollen, hinter ihnen stecke ein Mensch und die dennoch leer sind.
Beispiel: ChatGPT kreiert keine neuen Inhalte, sondern analysiert eine Frage und errechnet - basierend auf den vorhandenen Daten - eine möglichst wahrscheinliche Antwort.
So erstellt Midjourney (und inzwischen auch ChatGPT) auch Bilder. Die AI analysiert eine riesige Datenbank und wenn genug Bilder davon vorliegen, was eine Banane ist und was nicht, kann die KI daraus das Bild einer fotorealistischen Banane erstellen. Je präziser der Input, desto präziser der Output. Das funktioniert für User*innen auch nicht anders als eine Suche mit Google.
Generative KI ist es auch, die vielen Fotograf*innen Kopfschmerzen bedeutet, auch weil missgünstige User*innen auf einen Hype aufspringen, der verspricht, Kreative aus der Kreativindustrie auszuschließen und endlich auch Laien "Kunst" schaffen lässt. Dabei ist KI in den richtigen Händen ein wertvolles Werkzeug, während alle anderen weiterhin Portraits mit sechsfingrigen Weichzeichner-Models erstellen können.
KI und kreative Fotografie - welche Vorteile bringen AI-Tools für Fotograf*innen
Künstliche Intelligenz ist nicht der Ersatz für menschliche Intuition und das soll sie auch gar nicht werden. Wer auch immer annimmt, dass alle Fotograf*innen, Illustrator*innen und Filmemacher*innen bald arbeitslos sind, da er/sie mit Text-to-Image oder Text-to-Video arbeiten kann, sollte unbedingt seine eigenen Maßstäbe überprüfen.
KI sollte vor allem als gebündelter Begriff für unterschiedliche Technologien verstanden werden, denn genau so wird er auch gerade genutzt. Künstliche Intelligenz ist das, was vor wenigen Jahren den Blockchain war, ein Begriff, den sich jedes Unternehmen unbedingt auf die Flagge schreiben will, um möglichst zukunftsgewandt zu sein.
Dahinter verbirgt sich vor allem Machine Learning, ein Begriff des Informationstechnikers Arthur Samuel, der die maschinelle Analyse und Erstellung von aus den Daten resultierenden Algorithmen beschreibt.
Netflix-Empfehlungen etwa basieren bereits seit Jahren auf einem Algorithmus, dieser macht nun KI-Empfehlungen. In der Praxis bedeutet das für User*innen aber nichts Anderes als einen besseren Algorithmus.
Maschinelles Lernen ist die Grundlage dessen, was in Zukunft einmal eine allgemeine KI werden kann und die wichtigste Schnittstelle für Fotograf*innen heute. Denn diese Form von KI greift Fotograf*innen vor allem bei eher müßigen Aufgaben unter die Arme.
So wird die Bildretusche und Farbkorrektur schneller und generative Prozesse ersetzen den Klonstempel. An der eigentlichen Kreativarbeit wird sich für Fotograf*innen aber auf absehbare Zeit nur recht wenig ändern, denn Fotografie lebt vom menschlichen Auge, der Inspiration des Augenblicks und sogar den unliebsamen Zufällen.
Tools können Farben und Kontrast anpassen, wo Fotograf*innen aber an einem schwierigen Set noch eine PavoTube verstecken können, bleibt einer gewissen Kunstfertigkeit unterworfen. Und dass digitales Relighting eher schlecht als recht funktioniert, lässt sich derzeit vielfach ausprobieren.
KI-Technologien für Fotografen und Fotografinnen - besserer Autofokus dank Machine Learning
Machine Learning und KI werden von den meisten Fotograf*innen vor allem als Technologien verstanden, die in der Nachbearbeitung zum Einsatz kommen, dabei nutzen immer mehr Devices Chipsätze, die KI nutzen. Das gilt nicht nur für Smartphones, sondern auch vermehrt für Kameras.
Ein aktuelles Beispiel dafür findet sich in Sonys Alpha-Serie. Die Alpha 7R V beispielsweise besitzt mit 61 Megapixeln nicht nur eine bestechend hohe Auflösung, sondern setzt auch auf KI, um sicherzustellen, dass Motive tatsächlich scharf sind.
Um dies besser zu verstehen, lohnt sich ein kurzer Umweg zum klassischen Autofokus. Dieser arbeitet ganz traditionell mit Edge Detection, versucht also scharfe Kanten zu sehen. Scharfe Linien zeigen der Kamera an, dass das Motiv scharf ist. Um diese Funktionsweise besser zu ergründen, können Fotograf*innen einfach das Peaking einschalten. Diese Form der Fokusassistenz markiert scharfe Linien und ist vor allem beim Filmen mit manuellem Fokus unerlässlich.
Fortgeschrittenere Methoden nutzen zudem eine Gesichtserkennung, diese Technologie ist auch seit Jahren in Smartphones vorhanden. Hierbei erkennt die Kamera die typischen Merkmale eines Gesichts und fokussiert auf das menschliche Gesicht.
Sonys AI Autofokus geht noch einen Schritt weiter und erkennt nicht nur menschliche Gesichter, sondern auch Tiere und sogar viele Objekte (wie Autos oder Züge).
Bei menschlichen Motiven werden nicht nur Augen und Mund erkannt, sondern 20 verschiedene Punkte am ganzen Körper. Dadurch kann die Sony A7R V auch die nächsten Momente antizipieren und "weiß", in welche Richtung der Fokus verschoben werden muss. Verschwindet das Model kurz hinter einem Objekt im Vordergrund, verliert die Kamera außerdem den Fokus nicht, sondern kalkuliert, wo das Motiv scharf liegt, wenn es wieder im Bild auftaucht. Die KI erkennt, ob ein Mensch auf die Kamera zu kommt oder sich von ihr entfernt und weiß daher, in welche Richtung der Fokus geschoben werden muss.
Dieser Autofokus funktioniert nicht nur beim Fotografieren, sondern auch als kontinuierlicher Autofokus beim Filmen und zeigt, wie sehr Machine Learning und menschliche Kunstfertigkeit Hand in Hand gehen können. In den besten Fällen ist AI schließlich nicht dafür da, die Kunst der Fotografie zu besetzen oder Fotograf*innen arbeitslos zu machen, sondern um ihnen zur Hand zu gehen.
Und kaum ein*e Fotograf*in dürfte sich schließlich darüber beschweren, dass KI die Bilder alle knackig scharf hat werden lassen. Selbst bei raschen Aufnahmen aus der Hüfte sitzt die Schärfe so verlässlich und genau dort, wo sie sitzen soll. Zu klassischem Autofokus und dem langsamen Pumpen des Objektivs ist das kein Vergleich.
Generative AI - Fotos aus Prompts erschaffen
Natürlicherweise hat KI bei der Bildgestaltung immer noch den Beigeschmack von sogenannten Prompt Engineers und AI Artists, die sich selbst für Künstler*innen halten, weil sie einen Befehl in eine Zeile tippen und Midjourney und Co. ein Bild ausgeben lassen. Doch kann eine Bilder generierende KI auch für Fotograf*innen nützlich sein?
Rechtliche Fragen ausgeklammert - Gedanken zur Nutzung von Bildern
Machine Learning nutzt große Datenbanken an Bildern und Texten, um generativ arbeiten zu können. Je größer die Datenbank ist, desto präziser sind die Ergebnisse.
Unternehmen wie OpenAI, die ChatGPT geschaffen haben, haben dabei so viele Daten wie möglich in das System gespeist und dazu zählen nicht nur Datensätze, auf die es kein Copyright gibt oder deren Urheber*innen der Nutzung zugestimmt haben. AI-Unternehmen haben in vielen Fällen Daten genutzt, die "offen verfügbar" waren, ohne tatsächlich die Nutzungsrechte zu hinterfragen. Das ist vergleichbar mit Software-Piracy oder dem Upload von Filmen und Musik auf Torrent Server. Nur weil etwas im Netz ist, darf es nicht gleich von Unternehmen willkürlich genutzt werden.
Diese massenhafte Aneignung von Daten zeigt ein oft naives bis unverschämtes Verständnis von intellektuellem Eigentum und kreativer Arbeit.
Auf der ausgebenden Seite bleibt festzuhalten, dass die generativen Fähigkeiten einer KI ohne die Angabe von Quellen, was AIs aus den oben genannten rechtlichen Fragestellungen verständlicherweise nicht machen, jedes Resultat eines generativen Prompts automatisch zum Plagiat machen.
Hierzu müssen Rechtslücken erst noch geschlossen werden, allerdings fehlt es der Politik in vielen Fällen nicht nur am Willen, sondern auch am Know-How gegen diese Form des massenweisen Diebstahls intellektuellen Eigentums vorzugehen.
Abseits ungeklärter rechtlicher und moralischer Fragestellungen muss letztlich aber natürlich festgehalten werden, dass KI eine existente Technologie ist und es sich für Fotograf*innen lohnt, sich zumindest mit ihrer Nutzung auseinanderzusetzen. Zu welchem Schluss jede*r Einzelne vor allem beim Einsatz generativer AI kommt, ist natürlich eine individuelle Frage.
Da aber in vielen Fällen Daten ohne jegliche Art von Zustimmung eingezogen wurden, bleibt jeglicher Nutzung von KI in der Fotografie und anderweitig doch stets ein fader Beigeschmack. Unternehmen wie Meta haben bereits gezeigt, wie skrupellos Daten angeeignet, genutzt und verkauft werden, um damit den eigenen Marktwert zu steigern. Auch KI und die Unternehmen dahinter machen letztlich nichts Anderes und nichts Neues, die Funktionalität des Datendiebstahls jedoch an User*innen weiterzugeben, hat zumindest aber eine neue Qualität der moralischen Legitimation erreicht.
Das gilt nicht für alle KI-Modelle. Adobe etwa stellt die Lizensierung sicher und natürlich ist KI-gestützte Entfernung von Bildrauschen weniger moralisch grau als das Generieren eines Bildes aus einem Text-Prompt.
Demgegenüber stehen Künstler*innen, deren intellektuelles Eigentum ohne Zustimmung genutzt wurde und die nun digitale Simulacren als Konkurrenz haben, was ihren eigenen Marktwert reduziert.
Wobei natürlich vorrangig Kritik jenen Firmen und Auftraggeber*innen gelten muss, die sich mit den KI-generierten Ergebnissen zufrieden geben, weil diese gut genug sind. Keine KI kann einen tatsächlichen Standpunkt haben, KI kann Bilder erzeugen, verfolgt aber keine Idee hinter dem Bild. Und vor allem kann einer KI nie ein Zufall passieren. Menschliche Fotos hingegen sind voll von spontanen Eingebungen, kollektiver Inspiration und einem anscheinend ungünstigen Windstoß, der ein Foto zum Kunstwerk werden lässt.
Ein von einer KI generiertes Bild hingegen macht genau das, was die Eingebenden in den Prompt geschrieben haben. Und so viel Vorhersehbarkeit mag für die Zwecke einiger Firmen gut genug sein, führt jedoch nie zu künstlerischer Kreation.
Ein fotografisches Projekt mit AI-Fotos - KI und kreative Fotografie
Dass die Kreation mittels künstlicher Intelligenz dennoch reizvoll und vor allem interessant sein kann, zeigt beispielsweise der Berliner Portraitfotograf Hannes Caspar. Caspar gehört in Berlin zu den ganz großen Namen und es gibt nur wenige Stars und Sternchen der Berliner Medienbranche, die sich noch nicht vor der Linse des Fotografen wiederfanden.
Um Buchungen muss er sich also keine Sorge machen und dennoch weicht Hannes Caspar mit seinem Projekt The Unreal People immer wieder auf digital erstellte Bilder und digital erstellte Geschichten aus.
Der Blog zeigt anhand der oft täuschend echten Bilder immer wieder, wie weit KI bereits gekommen ist und zeigt Portraits, die auf den ersten Blick nahezu fotorealistisch wirken.
Künstlerischen Mehrwert hat das natürlich vor allem deswegen, weil Caspar diese Portraits benutzt, um die Möglichkeiten aufzuzeigen und immer wieder mit den Grenzen des Machbaren zu spielen. In den Händen von Künstler*innen kann auch die KI-Generierung ein interessanter Pinsel sein und Ergebnisse und Bildstudien schaffen, die mit echten Models nicht möglich wären.
Allerdings bleibt die Frage der Moral solcher Bildgestaltung, wenn es schließlich nicht die etablierten Fotograf*innen sind, die aus dem Markt gedrängt werden, sondern die Einsteiger*innen. Ist es also die künstlerische Frage nach der Idee, was im Zeitalter digitaler Repräsentation einen Menschen ausmacht, die The Unreal People antreibt oder findet sich hier doch nur ein digitales Spielzeug in den Händen eines Users, der nicht um seine eigene Existenz fürchten muss.
KI und Gesetz - was müssen Fotograf*innen zur KI-Nutzung wissen
Wie eingangs erwähnt, nehmen die Tech-Start Ups es nicht so genau mit den tatsächlichen Bildrechten, aber machen Nutzer*innen sich eigentlich strafbar, wenn sie Bilder veröffentlichen, die eindeutig auf dem intellektuellen Eigentum anderer basieren?
Im akademischen Kontext ist die Antwort klar, an Universitäten ist der Einsatz von KI (häufig selbst KI-Übersetzungen) untersagt. Schließlich handelt es sich hier nicht um selbst erstellte Inhalte (in Wort oder Bild) und ohne die Nennung von Quellen und korrekte Zitate, schlichtweg um Plagiate.
In der EU, die weltweit Vorreiter bei der Regulierung ist, wird der AI Act voraussichtlich erst 2026 in Kraft treten, es gibt also derzeit keine rechtlich bindenden Antworten rund um Datenschutz und Urheberrecht. Das könnte sich natürlich rasant ändern, wenn User*innen etwa realistische Videos von Disney-Charakteren erstellen und verkaufen und The House of Mouse vor Gericht zieht.
In der aktuellen Gesetzgebung ist noch unklar, ob Unternehmen wie OpenAI oder aber User*innen selbst für den Einsatz von KI haftbar sind. Der AI Act der EU würde verschiedene bestehende Regelungen auf KI übertragen und harmonisieren.
Explizit ausgeschlossen hiervon sind aber KI-Nutzung von Staaten durch Polizei oder Militär, um etwa biometrische Daten von Menschen zu sammeln und abzugleichen. Apps, die eine Gesichtserkennung versprechen, sind mit den strengen Regeln zum Datenschutz in Deutschland auf jeden Fall nicht vereinbar und in der Regel auch aus App Stores verbannt, da sie gerne als Tool zum Stalking genutzt werden.
Derzeit bleibt die Frage nach der Nutzung von KI-generierten Inhalten also durchaus spannend und ist rechtlich nicht zweifelsfrei geklärt. Ob Fotograf*innen sich also künftig strafbar machen, wenn sie das intellektuelle Eigentum anderer durch den "stochastischen Papagei" einer KI verletzen, ist nur schwer zu sagen. Derzeit ist es vor allem eine rechtliche Grauzone, die moralisch für Künstler*innen mindestens dunkelgrau ist.
Moralisch hiervon ausgenommen sind Bezahlmodelle wie Adobes Firefly, die Stockbilder als Grundlage verwenden, deren Nutzung mit dem Abo abgegolten ist. Fotograf*innen, die ein parkendes Auto mit Generative Fill durch nackten Asphalt ersetzen, müssen also kein schlechtes Gewissen haben - die Verwendung entspricht dem Einsatz von Stock-Fotografie. Und bei der Nutzung von Stock Fotos dürften auch nur den wenigsten Fotograf*innen Schweißperlen auf der Stirn stehen.
Pflanze, Sehenswürdigkeit, Gesicht - was ist auf diesem Bild zu sehen?
KI in der Bilderkennung zeigt eigentlich sehr gut den Unterschied zwischen allgemeiner künstlicher Intelligenz und Machine Learning auf. Denn eine Bildersuche vom Bild zum Text (Reverse Image Search) gibt es auf Google schon seit Jahren.
Doch noch vor einiger Zeit hat Google hiermit vor allem nach genauen Übereinstimmungen und starken Ähnlichkeiten gesucht. Das ist blendend, wenn Fotograf*innen etwa ein Produktbild hochladen, um zu schauen, ob der Kameragurt tatsächlich handgemacht ist oder aus China importiert wird und in Dutzenden Stores verkauft wird.
Über Machine Learning hat sich die Zahl der zur Verfügung stehenden Datensätze in den letzten Jahren allerdings so stark erhöht, dass nicht nur Gemeinsamkeiten erkannt werden, sondern auch Produktfamilien, Objekte, Tiere, etc. analysiert werden können.
So arbeiten etwa Google Lens oder Apple Photos und mit einigen Klicks können User*innen direkt auf dem Smartphone einsehen, welche Pflanze sie auf der Fensterbank haben oder welche Sehenswürdigkeit sie auf ihrem Städtetrip vor sich sehen. Eine nahezu Übereinstimmung mit den bereits vorhandenen Fotos in der Datenbank des Machine Learning-Algorithmus ist dabei nicht mehr notwendig, da die KI über so viele Daten verfügt, dass sie über Gemeinsamkeiten zwischen den Bildern arbeiten und identifizieren kann. Hinzu kommen Metadaten wie GPS.
KI-gestützte Bilderkennungssoftware kann Menschen, Ausschnitte, Objekte, Szenen, Tätigkeiten und selbstverständlich auch Texte erkennen. Fotograf*innen können auf solch eine Software zurückgreifen, um einen besseren Überblick über ihre Fotos zu behalten.
Das klassische Anordnen in Fotos oder eine Sortierung in Smart Folders, welche etwa das Sortieren nach Daten, Formaten und Orten erlaubt, können damit als erste Schritte genutzt werden, um Dateien zu lagern. Das tatsächliche Auffinden von Daten einem Algorithmus zu überlassen, ist für Fotograf*innen jedoch durchaus sinnvoll, da es schlichtweg Zeit erspart.
Als Beispiel: Kund*innen fragen nach Monaten noch einmal nach einem speziellen Foto, Fotograf*innen müssen sich nicht durch die Ordnerstruktur oder Lightroom klicken, sondern können einfach das gesuchte Motiv eingeben und die KI die Suche übernehmen lassen.
Oder aber Kund*innen wünschen sich beispielsweise für ein Event einen bestimmten Fotografiestil und Fotograf*innen können nun mit wenigen Klicks ein Portfolio aus Jahren eigener Arbeit erstellen. So sehen die Kund*innen eine Sammlung von "Bildern bei Kerzenlicht", ohne dass eine lange Suche notwendig wäre.
Tatsächlich ist die Bilderkennung durch Machine Learning bereits so weit fortgeschritten, dass sie aus dem Alltag von Fotograf*innen und Enduser*innen kaum noch wegzudenken ist. Das bedeutet für Fotograf*innen auch, dass sie sich wirklich mit diesem Hebel auseinandersetzen sollten, um das Beste aus der zur Verfügung stehenden Software zu machen.
KI in der Bildbearbeitung - Adobe setzt voll auf AI-Features
Nicht alle Fotograf*innen mögen das Modell von Photoshop und dem Abonnement der Creative Cloud, mit dem Adobe User*innen zu monatlichen Abgaben nötig. Das Argument, dass diese dann auch Zugriff auf die aktuellsten Features haben, war über Jahre hinweg eher Makulatur - und dann kam KI.
Wohl kaum eine Bildbearbeitungssoftware schafft den Spagat zwischen händischer Bildbearbeitung und KI so gut wie Adobe Photoshop und das liegt vor allem an der kontextbasierten Texteingabe, mit der Generative Fill und andere Funktionen funktionieren.
Hierfür setzt Adobe auf eine eigene KI, welche aus Texten Bilder generiert. Firefly heißt die Software, die den AI-Funktionen in Photoshop, Illustrator oder InDesign zugrunde liegt.
Firefly - Text-to-Image à la Adobe
Firefly (also Glühwürmchen) ist der Name für die KI, mit der Adobe User*innen erlaubt, aus Texteingaben Bilder zu erzeugen. Das können Anwender*innen hier genau so machen wie bei den neuesten Versionen von ChatGPT oder aber Midjourney.
Da Adobe seine Zielgruppe kennt und nicht erwartet, dass Designer*innen und Illustrator*innen sich selbst obsolet machen möchten, wird die eigenständige Nutzung der Software auch vor allem für die Ideensammlung angepriesen.
Für Fotograf*innen kann das vor allem interessant sein, um ein eigenes Moodboard zu erstellen und so die Kundenkommunikation anzupassen.
Firefly basiert dabei auf Adobe Stock, also Bildern, für die Adobe eine Lizenz besitzt. Zudem lassen sich verschiedene Stile einstellen und es gibt Vorschläge zu Filtern, die sich einfach per Klick auswählen lassen.
Generative Fill - Adieu, Clone Stamp
Generative Fill dürfte vermutlich das Einsatzszenario sein, an das Fotograf*innen beim Einsatz von KI bei der Bildbearbeitung zuerst denken. Der Clone Stamp und das Healing Tool sind erprobte Werkzeuge, die anhand händischer Eingabe oder einem Algorithmus Bildbereiche auffüllen, die entfernt werden müssen.
Das gilt beispielsweise für Hautunreinheiten, aber auch für Personen im Hintergrund, Risse in Strukturen, etc. Die Entfernung kleinerer Objekte im Bild funktioniert seit Jahren technisch ohne Probleme und mit dem Clone Stamp können Fotograf*innen sogar einen Bereich aus einem anderen Teil des Fotos als Pflaster nutzen.
Bei größeren Objekten tut sich der recht einfache Algorithmus jedoch schwer, da er einzig das gerade genutzte Bild als Grundlage heranzieht oder seine Berechnungen anhand der umliegenden Pixel anstellt.
Mit Generative Fill ist jedoch auch das kein Problem mehr, da Photoshop nun nur noch eine Texteingabe benötigt, um zu wissen, was an die gewünschte Stelle kommen soll. Eine leere Straße, ein Stück Wüste, ein Segelboot – die KI übernimmt das präzise Auffüllen des Bildbereichs und Photoshop macht unterschiedliche Vorschläge, User*innen können auch anhand ihres favorisierten Vorschlags mehr Bilder erstellen lassen.
Zudem kann nun auch kreativ aufgefüllt werden und nicht mehr nur basierend auf den Pixeln in der Umgebung.
Generative Extensions - mehr vom Bild
Eine Bilderweiterung kann Photoshop dank Firefly auch übernehmen, hierfür kann der Ausschnitt erweitert oder aber verschoben werden. Grundsätzlich funktioniert dies immer dann besser, wenn mit gegebener Vorsicht gearbeitet wird, statt das tatsächliche Foto auf Briefmarkengröße zu schrumpfen und die KI den Rest machen zu lassen.
Firefly ist jedoch sehr viel besser in der Bilderweiterung geworden und obskure Ergebnisse wie das dilettantische Erweitern des Albumcovers von "Abbey Road", das aufgrund seiner Skurrilität viral ging, gehören der Vergangenheit an.
Auch hier können User*innen sich ihr favorisiertes Bild aussuchen und anhand der Vorschläge mehr Bilder generieren lassen. Die Bilderweiterung kann für Fotograf*innen immer dann sinnvoll sein, wenn Fotos aus technischen Gründen einfach nicht besser inszeniert werden konnten. Wer möchte schon an einem stürmischen Strandtag den Sensor für einen Objektivwechsel offen legen? Und wie sollen Fotograf*innen noch einen Schritt zurück machen, wenn ihnen schon die Hauswand in den Rücken drückt?
Auch wenn Bilder begradigt werden sollen, ist Creative Extension eine interessante Funktion, da die Begradigung so keinen Crop mehr erfordert.
Die Bilderweiterung ist in solchen Fällen auch eine kreative Erweiterung, sollte jedoch nicht die kreative Entscheidung beim Fotografieren ersetzen. Fotograf*innen müssen es selbst übernehmen, ihr Bild ins richtige Framing zu rücken, haben aber für Notfälle einen digitalen Flicken in der Bildbearbeitungssoftware.
In den neuesten Versionen funktioniert der Generative Fill nicht mehr ausschließlich durch Texteingaben, sondern kann auch anhand eines Referenzfotos eigene Bilder generieren. Trägt ein Model in einem Foto etwa einen braunen Rucksack und dieser soll durch einen gelben Rucksack ersetzt werden, so kann der entsprechende Bereich markiert und Generative Fill ein Referenzbild vorgesetzt werden. Dieses Referenzbild dient der KI jedoch nur als Anstoß, allzu präzise werden die Annäherungen nicht sein, jedoch präziser als bei reiner Texteingabe.
Fotografierte Vordergründe, KI-generierte Hintergründe
Das Entfernen des Hintergrundes, mühsames Rotoskopieren oder Chroma- und Luma-Keying sind Aufgaben, die wohl nur die wenigsten Fotograf*innen gerne erledigen würden. Auch hier zeigt sich, wie künstlerisches Arbeiten und KI-Assistenz Hand in Hand gehen können.
In Photoshop ist es einfacher denn je, den Hintergrund mit nur einem Klick zu entfernen und dabei selbst Details wie einzelne Haare zu behalten - und das nahezu unabhängig vom tatsächlichen Hintergrund.
Über das Generative Erstellen eines neuen Hintergrundes lassen sich so Bildkompositionen erstellen, die in der echten Fotografie nicht nur aufwendig oder gar unmöglich sein können, sondern sogar fotorealistisch wirken können.
Möchten Fotograf*innen etwa ihre Models im städtischen Park ablichten, aber digital in den Regenwald setzen, so ist das kein Problem mehr und erspart die Bootstour den Amazonas hinab. Und die Auswahl an Hintergründen ist kontextsensitiver und vielseitiger als beim Einsatz von Stockbildern.
Das generative Erstellen von Hintergründen funktioniert in vielen Punkten bereits blendend, jedoch nicht in allen. Grundsätzlich ist Firefly recht gut darin, abzuschätzen, wie groß und wie scharf ein Hintergrund sein muss, die korrekte Lichtrichtung ist hingegen nach wie vor ein Vabanquespiel. Hier werden Fotograf*innen sich durch viele Samples klicken müssen, um einen passenden Hintergrund zu finden, der zumindest die Illusion eines echten Fotos erlaubt.
Für Bildkompositionen mit fantastischen Genreideen ist diese KI-Bearbeitung jedoch eine absolute Bereicherung.
Auch in der Produktfotografie kann die Erzeugung von aufwendigen Hintergründen Fotograf*innen viel Zeit sparen oder aber beim Sammeln von Ideen oder Erstellen eines Moodboards helfen. Produktfotos können vor recht simplen Hintergründen aufgenommen werden, um dann digital in spannende Kompositionen gesetzt zu werden. Gerade weil in der Produktfotografie sehr häufig Stockbilder genutzt werden, um Hintergründe zu ersetzen, erlaubt Firefly den nächsten logischen Schritt.
Mehr Detail und weniger Rauschen
Andere KI-Funktionen für die Bildbearbeitung sollten Fotograf*innen vor allem als Bereicherung und Ersatz bestehender Funktionen verstehen. Während das klassische Nachschärfen vor allem Kanten und Kontraste anzieht und nur mit viel Obacht eingesetzt werden sollte, kann KI viel mehr Detail in die Bilder bringen und erlaubt dadurch auch starke Vergrößerungen bei gleich bleibender Qualität.
Auch die Rauschunterdrückung (wie etwa bei spezialisierter Software wie Topaz) oder das Erhöhen der Auflösung durch KI sind sinnvolle Tools, die Fotograf*innen neue Möglichkeiten erschließen. Fotos, die nur mit sehr hohen ISO-Werten aufgenommen werden konnten, können so entrauscht und mit mehr Details versehen werden,
Und das Upscaling ist vor allem dann sinnvoll, wenn ältere Digitalfotos mehr Auflösung erhalten sollen. Selbst Bilder aus der Frühzeit der Digitalfotografie erstrahlen so in neuem Glanze und machen die frühen 2000er gleich etwas greifbarer.
Updates in der Beta - Adobes KI-Funktionen in Photoshop
Wer sicherstellen möchte, die neuesten AI-Features von Photoshop auch wirklich zu nutzen, sollte nicht nur die neueste Version von Photoshop herunterladen, sondern vor allem in der Photoshop Beta arbeiten. Diese steht allen Abonnent*innen der Adobe Creative Cloud zur Verfügung, muss jedoch separat installiert werden.
Die Unterschiede in der Qualität der KI-generierten Ergebnisse und der Zahl der zur Verfügung stehenden Features ist frappierend.
Hier zeigt sich der Unterschied zwischen Beta- und stabiler Releaseversion - jede KI-basierte Bildbearbeitung ist nur eine Momentaufnahme und die zur Verfügung stehende Technik entwickelt sich rasant weiter. Gerade hier haben Fotograf*innen nicht nur die Möglichkeit, kreativ mit KI zu arbeiten, sondern auch Zeit zu sparen oder Moods für potenzielle Kund*innen zu erstellen.
Fluch oder Segen - die Zukunft von KI in der Fotografie
Die Zukunft der Fotografie mit künstlicher Intelligenz kann aus heutiger Sicht nur vage überblickt werden. Zu schnell entwickeln sich KI-Modelle, Prototypen und Apps weiter, zu sehr versuchen die Hersteller, sich mit noch nicht marktreifer Technologie wie dem Rabbit R1 oder dem Humane Pin ein Stück des Kuchens zu sichern.
Doch ein Trend ist auf jeden Fall absehbar: Die Schritte sind derzeit noch klein und, auf die tatsächliche Technik dahinter heruntergebrochen, oft nicht so spektakulär wie der Begriff KI das weismachen möchte. So mag etwa der KI-gestützte Autofokus noch besser funktionieren als vorige Versionen und die automatische Kontrast- und Farbanpassung dank AI etwas eleganter sein, dennoch handelt es sich dabei um Evolutionen und nicht um Revolutionen.
Künstliche Intelligenz und Machine Learning werden im Leben vieler Menschen eine immer größere Rolle einnehmen und bald schon selbstverständlich sein. Und warum sollte eine KI nicht auch aus mehreren Aufnahmen aus der Hüfte automatisch die beste markieren? Was spricht dagegen, Generative Fill zu nutzen, um einen Teil eines unliebsamen Hintergrund zu entfernen? Und ist die Bildersuche nach intuitiven Stichworten nicht wesentlich einfacher als das mühsame Durchforsten von Dutzenden von Ordnern?
Künstliche Intelligenz hat das Potenzial, die Fotografie in den nächsten Jahrzehnten enorm zu bereichern und Kreativen neue Möglichkeiten zu offerieren, ihre eigenen Möglichkeiten voll auszuschöpfen.