Die Dunkelkammer ist weitgehend durch den Computer substituiert worden. Die dabei neu aufgetauchten Fragestellungen betreffen somit jeden, der mit Photographie umgeht. Daher veranstaltete die Sektion „Wissenschaft und Technik“ der Deutschen Gesellschaft für Photographie (DGPh) ein öffentliches Vortragsforum zu wesentlichen Aspekten digitaler Technologien. Gastgeber war Prof. Dr. Gregor Fischer vom Institut für Medien- und Phototechnik der Fachhochschule Köln.
Es wurden drei Schwerpunktthemen beleuchtet: Standardisierung von Kamera-RAW-Dateien, Haltbarkeit und Archivierung sowie Innovationen. Fischer widmete sich der Standardisierung. RAW-Formate werden in der professionellen Photographie wegen ihrer offensichtlichen Workflow -Vorteile geschätzt. Sie enthalten alle Informationen, die der Kamerasensor aufzeichnet. Neben den Bildpunkten sind dies kamera- und bildspezifische „Metadaten“, also Daten, die die Bilddaten beschreiben. Individuelle Bildoptimierungen können nachträglich an leistungsstarken PCs ausgeführt werden. Bei der Verwendung des JPEG-Formats hingegen werden automatische Bildberechnungen von den vergleichsweise rechenschwachen Kameraprozessoren erledigt. Ein dabei falsch gewählter Weißabgleich kann beispielsweise nur schwer oder gar nicht mehr korrigiert werden, während er auf die Qualität von RAW-Dateien keinen Einfluss hat.
Allerdings kommen fast ausschließlich proprietäre RAW-Formate zum Einsatz. Dies macht es Drittanbietern schwer Optimierungsmöglichkeiten auszuschöpfen, beispielsweise Herstellern von RAW-Konvertern. Zu allem Überfluss sind die Formate unterschiedlicher Kameras ein und desselben Herstellers untereinander oft inkompatibel. Zudem nutzen sowohl Kamerahersteller als auch Softwareproduzenten neue RAW-Formate vor allem auch als Verkaufsargumente für neue Kameras und Softwarepakete. Ältere Formate werden von neueren Produkten oft nicht mehr unterstützt, was schon zu Datenverlust geführt hat.
Als RAW-Standardisierungsvorschlag erläuterte Gregor Fischer den Ansatz der ISO (International Organization for Standardization). Er sieht vor, alle relevanten Metadaten als Bestandteil des Bildformates zu verwenden und nicht, wie heute oft praktiziert, wichtige kameraspezifische Daten in Konvertern zu „verstecken“. Für die Anwender steht der Nutzen außer Frage, denn die Informationen wären sicher eingekapselt und nicht mehr verteilt. In der Diskussion wurde deutlich, dass proprietäre Formate als Marketinginstrumente ausgesprochen verlockend sind. Nur Druck seitens der Kunden könnte die Hersteller dazu bringen, den Weg der Standardisierung einzuschlagen. Es blieb aber offen, wie dieser Marktdruck erzeugt werden könnte.
Die Archivierung und Haltbarkeit von Speicher- und Druckmedien war der zweite Themenschwerpunkt. Dr. Wolfgang Schmidt von Felix Schoeller, einem führenden Papierhersteller, referierte über die Haltbarkeit unterschiedlicher Farbpapiere. In umfangreichen Versuchen waren die klimatischen Verhältnisse Mitteleuropas simuliert worden. Mikroporöse InkJet-Papiere erwiesen sich, wie auch von anderen Tests bekannt, als konkurrenzfähig zu Silberhalogenidpapieren. Letztere haben weiterhin den größten Marktanteil. Insbesondere Ozon schädigt Bilder stark. Neuere Tinten sind in dieser Hinsicht allerdings weniger anfällig. Die schädigende Wirkung des Lichts hingegen wird meist überschätzt.
Prof. Dr. Hans Brümmer benutzte mit Blick auf die Gefahr des Datenverlusts durch die Verwendung unzureichender Speichermedien den Begriff des „digitalen Alzheimers“. Wer vor allem den Preis als Hauptkriterium betrachte und Langlebigkeit als gegeben annehme, erlebe bei CD-ROMs und DVDs oft böse Überraschungen. Daten könnten bei minderwertigen Medien schon nach zwei Jahren verloren gehen. Brümmer empfahl eine redundante Datenhaltung sowie langfristige Migrationsstrategien für das unvermeidliche Umkopieren auf neue Speichermedien (www.hansbruemmer.de).
Die Migration ist das komplexe und lästige Hauptproblem der digitalen Archivierung. Neben finanziellen und organisatorischen Herausforderungen gibt es jedoch einen gesellschafts-kulturellen Aspekt, der bei rein pragmatischer Betrachtungen übersehen wird: Um digitale Daten verarbeiten zu können, bedarf es einer technischen Infrastruktur. Die Existenz einer technisch orientierten, am kulturellen Erhalt interessierten Gesellschaft sei aber nicht garantiert, wie Prof. Dr. Rudolf Gschwind von der Universität Basel bemerkte. Er beschrieb das Forschungsprojekt Peviar (Permanent Visual Archive, www.peviar.ch), ein System zur migrationslosen Speicherung digitaler Daten. Die Idee ist, digitale Daten auf langzeitbeständigem Ilford-Micrographic-Film in Form zweidimensionaler Barcodes zu speichern. Zwar wird für das Decodieren ein Scanner benötigt, da das Scannen jedoch eine seit Jahrzehnten beherrschte Basistechnologie darstellt, sollten einfache Lesesysteme mit einem Minimum an technischem Wissen selbst unter widrigen Umständen herstellbar sein.
Peviar zielt auf die migrationslose Archivierung beliebiger Informationen, nicht nur die von Bildern. Dies vergrößert die Schwierigkeiten erheblich. Um dies verständlich zu machen, gab Gschwind eine ausgesprochen kurzweilige Einführung in das bedeutsame, meist jedoch sehr trocken dargestellte Gebiet der symbolischen Codierung. Der binäre Code mit seinen beiden Symbolen „0“ und „1“ ist theoretisch verlustfrei speicher- und übertragbar. Aber er ist auch ein logisches Konstrukt, denn die konkrete physikalische Speicherung geschieht immer analog. Sie hat somit mit Fragen der Erkennbarkeit und Auflösung zu kämpfen. Zudem hat eine Folge von Nullen und Einsen keine offensichtliche Bedeutung. Sie könnte einen Text, Audio- oder Bildinformationen bedeuten. Hinzu kommt die Problematik sich ändernder Dateiformate, die von Peviar nicht gelöst wird. Die Archivierung ganzer Datenbanken würde weitere immense Probleme aufwerfen. Diese kritische Sachlage sollte in der Photographie nicht unbeachtet bleiben, denn der Großteil des professionellen Bildmaterials wird letztendlich in Datenbanken vorgehalten. Hier sind Innovationen dingend vonnöten.
Dr. Piotr Swiatek, European Cooperation in Science and Technology (www.cost.esf.org), beschäftigte sich mit den Rahmenbedingungen, die für das Zustandekommen von Innovationen erforderlich sind. Er war kurzfristig verhindert und so konnten seine Vortragsfolien nur gezeigt und kommentiert werden. In der digitalen Photographie gibt es eine Vielzahl innovativer Ansätze: Sensoren, die Bildergebnis eigenständig optimieren oder die Verbindung von lebenden Nervenzellen mit Silizium oder künstliche Retinas sind nur drei Beispiele. Innovative Gebiete bieten Chancen für kleinere und mittlere Unternehmen. Deutsche Firmen sind leider unterrepräsentiert. Es gibt jedoch Ausnahmen, wie die Firma SpheronVR, die eine weltweit herausragende Stellung im Bereich des High Dynamic Range Imagings (HDRI) einnimmt. Gefragt ist interdisziplinäres Arbeiten, insbesondere zwischen Industrie und Universitäten.
Innovationen „im Kleinen“ stellte Michaela Stolle von Epson-Europe vor. Sie beschrieb die Technologie des Epson Perfection V500 Photo, der als Beleuchtungseinheit weiße Leuchtdioden (LEDs) verwendet. LEDs haben gegenüber den sonst üblichen Kaltkathodenlampen viele Vorteile. Vor allem ist der Energieverbrauch geringer und der Scanner benötigt praktisch keine Aufwärmzeit, um farbstabil zu arbeiten.
Veranstaltungen der DGPh zu Fragen der technologischen Entwicklung fanden in den letzten Jahren regelmäßig statt. Dies ist sehr lobenswert. Bei diesem Termin fanden sich leider jedoch nur etwa 60 Zuhörer ein. Es ist zu wünschen, dass es in Zukunft gelingt, Veranstaltungsorte und griffige Mottos zu finden, die ein größeres Publikum anziehen. Laut dem Sektionsvorsitzenden Hans Brümmer sind für die photokina 2008 entsprechende Foren geplant. Dies würde die geforderte Interdisziplinarität auch praktisch fördern.
Christian Gapp