Zoek op trefwoord in al mijn blogartikelen

zaterdag 2 januari 2021

Content Authenticity Initiative (CAI)

 

Op 13 oktober 2020 was de jaarlijkse IPTC conferentie en een van de onderwerpen die daar m’n aandacht trok was een initiatief (voor de initiatiefnemers zie later in dit artikel) om tot een industrie standaard te komen voor wat ze zelf noemen “digital content attribution”.

Het gaat hier om het verifiëren van de afkomst van beeldmateriaal en zien wat er ‘onderweg’ precies mee gebeurd is. Hun doel is dat consumenten beter in staat zijn om de betrouwbaarheid van beeldmateriaal te beoordelen.

Andy Parsons van Adobe (een van de initiatiefnemers van CAI) presenteerde het initiatief en het kan  hier op Youtube teruggekeken worden (vooral de moeite waard vanwege de voorbeelden die hij liet zien).

Echtheid van informatie heeft ons altijd al bezig gehouden (Ik schreef hier al een aantal malen over; hier en hier ). Het is echter niet eenvoudig om te bepalen wat onecht is. Het blijkt eenvoudiger om te bepalen wat  wél echt is.

Een paar decennia geleden we kregen informatie van geprinte media uit voornamelijk betrouwbare bronnen. De situatie tegenwoordig is heel anders:

  • Vooruitgang in techniek
  • Mogelijkheden tot verspreiding van content (1 telefoon naar miljoenen anderen)
  • Snelheid van verspreiding is nu seconden waar dat minuten, uren of dagen was
  • Er bestaat content met de bedoeling om te misleiden
  • Gebrek aan transparantie

Er zijn een aantal mogelijkheden om het hoofd te bieden aan de moeilijkheden die hierdoor ontstaan. Andy onderscheidt drie ‘pijlers’:

  1. Educatie
  2. Detectie
  3. Attribution (Toeschrijven aan)

Voor wat betreft de eerste pijler, mensen moeten de verschillende mogelijkheden kennen die er bestaan om beeld te manipuleren plus de termen waarmee die geclassificeerd worden als Cheapfake, deepfake, e.d.

De tweede pijler benoemde ik eerder al even, het is een wapenwedloop. De mensen die beelden manipuleren staan altijd een stap voor op diegenen die ze proberen te herkennen.

Het voorbeeld van de Deepfake Detection Challenge van o.a. Facebook liet zien dat weliswaar 65% van het nepmateriaal er uit wordt gehaald maar dan blijft er nog altijd een immense hoeveelheid over die er doorheen glipt. De herkenningspercentages zullen wellicht verbeteren maar de ‘good guys’ zullen altijd een stap achter blijven lopen.

Het CAI initiatief concentreert zich op de derde pijler ‘Attribution’. Het volgen van het beeldmateriaal tijdens de reis die het aflegt van opname naar publicatie. Het gaat hierbij om vertrouwen over wie, wat en hoe. Deze informatie wordt dan vastgelegd in een robuustere, fraudebestendiger ‘schil’ dan EXIF of XMP alleen (want die informatie blijkt te vaak niet meer (correct) aanwezig op het web).

 

Schematisch betreft het een structuur voor het opslaan en uitlezen van cryptografische verifieerbare gegevens door een zogenaamde ‘actor’. Dit kan een mens zijn maar ook hard- of software. Twee andere termen die nog een rol spelen zijn ‘Claims’ en ‘Assertions’ . Assertions representeren informatie en Claims pakken die in, in verifieerbare pakketten.

Iedere actor die het beeldmateriaal maakt of bewerkt creëert daarmee ook een Assertion met informatie over wat er gedaan is, wanneer en namens wie. Een dergelijke Assertion is feitelijk een cryptografische hashwaarde. Wanneer deze digitaal ondertekend wordt (door een vertrouwde partij) wordt het een ‘Claim’. De handtekening garandeert als het ware de integriteit van de Claim. Zo’n Claim reist dan mee met de foto en er worden meerdere aan toegevoegd wanneer er andere partijen zijn die iets met het beeld doen (bewerken, publiceren, etc). Iedere nieuwe Claim refereert naar de vorige waardoor het een ketting wordt.

Claims bevaten dus feiten over de creatie van het beeld, auteurschap, bewerkingsacties, details van het apparaat waarmee het beeld gecreëerd is, de software die gebruikt is en nog veel meer. Deze feiten tonen de herkomst van een bepaald beeld aan.

Claims kunnen aan het beeldmateriaal worden toegevoegd of centraal (in de cloud) worden beheerd, dat is afhankelijk van de workflow en de mogelijkheden die leveranciers zullen gaan bieden.

Een belangrijk onderdeel in het proces zijn de organisaties die de Claims gaan ondertekenen. Zij gaan dezelfde rol vervullen als dat Certification Authorities voor webbrowsers doen; het afgeven van certificaten die de betrouwbaarheid van websites garanderen (het ssl slotje).

Hoe werkt het vanuit (Adobe) gebruikersperspectief?

  • 1. Creëer een beeld
  • 2. Breng wijzigingen aan en schrijf deze terug naar het bestand
  • 3. Bereken een unieke vingerafdruk, de assertion (hash)
  • 4. Onderteken de Claim en sla die op (online of offline)
  • 5. Bewaar de handtekening-URL in de XMP ruimte van het beeldmateriaal

 


Een preview van de ‘Creator’s view’ in Photoshop. (Het betreft een screenshot van de eerdergenoemde video en hij is daarom niet zo scherp..)

In deze Creators view zie je informatie over de herkomst van de foto die je geopend hebt.

 


Van een afbeelding die je op internet hebt gevonden, kun je de herkomst ook opvragen.

 

En nu?

De CAI initiatiefnemers zijn niet de kleinste; Adobe, Microsoft, BBC, CBC, New York Times, Stanford Center for Blockchain Research, Truepic, University of California – Berkeley, WITNESS en Twitter.  

Gezien alle nepnieuws wat er tegenwoordig is denk ik zelf dat er een grote behoefte is aan een dergelijk initiatief mits de ondersteuning maar voldoende is. Met initiatiefnemers als Adobe, Microsoft, BBC, CBC, New York Times, Stanford Center for Blockchain Research, Truepic, University of California – Berkeley, WITNESS en Twitter lijkt dit zeker mogelijk. Laten we hopen dat er snel gemakkelijk te gebruiken praktische toepassingen komen!

Voor diegenen die zich nader willen verdiepen in deze materie is er een (Engelstalige) White paper “Setting the Standard for Content Attribution” beschikbaar.

zaterdag 12 december 2020

Categorieën (foto)metadata


Recent viel het me op dat je blijkbaar vanuit verschillende invalshoeken naar metadata van foto’s kunt kijken en ze ook verschillend kunt classificeren. Een paar voorbeelden.


Het IPTC onderscheid 3 categorieën meta data:

  • Administratief

Datum van opname, de locatie, contactinformatie en technische details, e.d.

  • Beschrijvend

Informatie over de zichtbare inhoud. Dit kan met vrije tekst of m.b.v. codes uit een ‘controlled vocabulary’

  • Rechten

Wie is de maker, Copyrightinformatie, gebruiksrecht en modelovereenkomst (quit claim)

 

Peter Krogh (via dpbestflow.org)  onderscheidt ook 3 verschillende categorieën maar andere dan het IPTC:

  • Automatisch gegenereerde metadata

Bestandseigenschappen en EXIF die automatisch gecreëerd zijn door de camera

  • Bulk ingevoerde metadata

Licentiegegevems, copyright, brede classificatie zoals werk/privé. Vaak toegepast middels een template of sjabloon aan alle of meerdere foto’s tegelijk

  • Hogere metadata

Waardering, namen van personen, situatieschets. Dit is informatie die aan een enkele of slechts paar foto’s tegelijk wordt toegekend

 

Philip Hodgetts onderscheid meer verschillende soorten metadata:

  • Source metadata
Wat er vanuit de camera aan de foto wordt meegegeven

  • Added metadata
Toegevoegd, trefwoorden bijvoorbeeld

  • Derived metadata
Gezichtsherkenning, plaatsen afgeleid van GPS coördinaten

  • Inferred metadata
Veronderstelling, afgeleid van andere metadata. Het is op een vrijdag en het is in een kerk dus het zal hoogstwaarschijnlijk om een huwelijk gaan. Gezichtsherkenning. OCR.

  • Analytical metadata
Visueel duidelijk aanwezig maar onzichtbaar voor de computer. Het gaat hierbij om de samenhang tussen foto’s. De combinatie van wat er op staat en wat je al weet.

  • Transformative metadata
Een voorbeeld die hij hier gebruikt was de Color lookup table


 

dinsdag 3 november 2020

Trefwoorden in Lightroom


Er valt een hoop te vertellen over trefwoorden in combinatie met Lightroom (classic) en dat heb ik dan ook al een aantal malen gedaan. Zo schreef ik in 2018 al eens over ‘
helpertrefwoorden’:



'Helpertrefwoorden zijn keywords die helpen om je workflow gecontroleerd te doorlopen. Het trefwoord '@nog_geen_namen' bijvoorbeeld heb ik opgenomen in een slimme verzameling die 'Namen van personen toevoegen' heet. Die bekijk ik af en toe en dan voeg ik de namen toe aan het aantal foto's waarvoor ik op dat moment tijd heb. Daarna verwijder ik het betreffende helpertrefwoord.

Datzelfde jaar schreef ik over hoe hiërarchische trefwoorden kunnen helpen bij het (re)organiseren van je trefwoorden. 


Een paar jaar eerder, in 2014 alweer, een artikel over
de verschillende manieren waarop je in Lightroom trefwoorden aan foto’s toe kunt voegen:



  1. Met het Trefwoord paneel
  2. Met de spuitbus
  3. Via het Import menu

In 2008, al weer heel lang geleden, een artikel over het consistent (en slim) gebruik van bepaalde trefwoorden en vooral het contextualiseren ervan: 



Hier gaat het vooral om wanneer je foto's wilt verkopen via een stockbureau. Dan is het belangrijk dat de juiste foto naar boven komt bij een bepaalde zoekterm maar ook dat je trefwoordenvervuiling wilt tegengaan. De zoekmachine zou slim genoeg moeten zijn om bepaalde vervoegingen als meervoud zelf te herkennen.

donderdag 15 oktober 2020

De voorvertoningen van Lightroom Classic

 

Lightroom Previews (voorvertoningen)

Lightroom onderscheidt verschillende soorten voorvertoningen (in het Engels ‘Previews’). Ze worden gebruikt door Lightroom om je een representatie te geven van de foto’s die door Lightroom beheerd worden. Lightroom zou je de werkelijke inhoud van een foto kunnen laten zien maar het telkens live berekenen daarvan (dit wordt renderen genoemd) kost relatief veel tijd en rekenkracht van de computer. Daarom wordt er vooraf, op het moment dat een foto wordt binnengehaald vanaf camera of cardreader, een representatie (voorvertoning) opgeslagen. Deze wordt dan aan jou getoond zodra je met je cursor een bepaalde foto in Lightroom aanklikt. Dit gaat veel sneller dan het telkens renderen van een beeld aan de hand van de RAW data.

Het fenomeen voorvertoning an sich is al lastig uit te leggen maar nog verwarrender wellicht is dat er verschillende zijn... Bij het importeren van je foto’s kies je welke je wilt uit vier mogelijkheden:


Minimaal
Lightroom gebruikt in dit geval de kleinste voorvertoning die door de camera is gegenereerd en die aan het fotobestand is toegevoegd. Deze voorvertoning is niet kleur gemanaged. Omdat Lightroom hier niets hoeft te doen (behalve de voorvertoning uitlezen en opslaan) werkt deze optie het snelst. Dat wil zeggen, de import is met deze keuze het snelste klaar.
Wanneer je deze foto later (in Lightroom) opent wordt op dat moment alsnog een (standaard) voorvertoning gegenereerd en dat kost op dat moment iets meer tijd dan wanneer er al een standaard voorvertoning beschikbaar zou zijn. 

Ingesloten en secundair (Embedded & Sidecar)
Hiermee wordt de grootst mogelijke voorvertoning gebruikt die vanuit de camera beschikbaar is en in de afbeelding ligt opgeslagen. Dit proces is iets langzamer dan bij ‘Minimaal’ maar het is nog altijd een stuk sneller dan wanneer Lightroom zelf een voorvertoning zou moeten renderen.

Standaard 
Dit zijn de voorvertoningen die Lightroom standaard rendert in de ProPhoto RGB kleurruimte. Hoe groot ze zijn ligt aan wat je hebt ingesteld onder ‘Bewerken/Catalogusinstellingen’: 


1:1 
Lightroom negeert hier de voorvertoningen die door de camera zijn gemaakt en aan de afbeeldingen zijn toegevoegd. Lightroom berekent ze zelf aan de hand van de RAW data in het fotobestand op het moment dat je een foto binnenhaalt. Deze, gerenderde, voorvertoning wordt in de database van Lightroom opgeslagen en gebruikt om de foto aan je te tonen in de bibliotheekmodule in de hoogste kwaliteit. Je kunt bijvoorbeeld inzoomen tot op pixelniveau. Wanneer je van tevoren weet dat je op de meeste foto’s gaat inzoomen (om de scherpte te bepalen bijvoorbeeld) zou dat een goede reden kunnen zijn om alvast 1:1 voorvertoningen te gaan maken. Dat scheelt dan veel tijd op het moment dat je daarmee aan de slag gaat. 
In de ontwikkelmodule wordt deze 1:1 voorvertoning overigens niet gebruikt. Daar wordt altijd een separate, tijdelijke, 1:1 voorvertoning gerenderd wanneer je daar een foto opent.

Naast deze vier verschillende soorten voorvertoningen waaruit je kunt kiezen bij de import van je foto’s bestaan er nog meer voorvertoningen:

Tijdelijke voorvertoningen in Bibliotheek en Ontwikkel module
Voor alle duidelijkheid, voorvertoningen die gebruikt worden in de bibliotheekmodule worden niet gebruikt in de ontwikkelmodule, ook niet de 1:1 (hoewel die kwalitatief wel gelijk aan elkaar zijn). Zodra een foto gewijzigd is in de ontwikkelmodule, wordt de bijbehorende voorvertoning in de bibliotheekmodule verwijderd en opnieuw aangemaakt zodra je de foto daar opent. Dat is dan inclusief de recentste wijzigingen die erop aangebracht zijn.

Slimme voorvertoning / Smart Previews
Een slimme voorvertoning is eigenlijk helemaal geen voorvertoning! Het is eigenlijk een proxy voor het originele bestand. ‘Smart proxy’ was dan ook een betere beschrijving geweest. Deze optie is geïntroduceerd in versie 5 van Lightroom (Classic) met als doel om toch aan een foto te kunnen werken terwijl het originele bestand niet aanwezig is. Dit kan zijn omdat die op een afgekoppelde harde schijf staat of wanneer je op reis bent en maar een beperkte selectie foto’s met je mee hebt genomen. Voor de komst van Slimme voorvertoningen kon je deze foto’s wél in de catalogus van Lightroom zien maar niet bewerken. Een Slimme voorvertoning is in werkelijkheid een ‘lossy’ DNG bestand met een vast formaat van 2560 pixels breed en ongeveer 1 MB groot. Dit is vaak een factor 10 kleiner dan het origineel.

Je kunt Slimme voorvertoningen maken tijdens het importeren in Lightroom maar dat kost nog meer tijd dan 1:1 voorvertoningen. Het kan ook op een later tijdstip voor één of meerdere geselecteerde foto’s. Het bronbestand moet wel bereikbaar zijn op het moment dat je er een slimme voorvertoning van wilt maken. Uiteraard kun je ze later ook altijd weer (veilig) verwijderen. 

Voor een aantal toepassingen kun je volstaan met alleen een slimme voorvertoning. Publicatie op sociale media bijvoorbeeld, daar is geen hoge resolutie voor nodig. In de boekmodule of bij een export waarvoor een hogere resolutie nodig is zal Lightroom wel vragen om de bronbestanden.
De Slimme voorvertoning wordt ook gebruikt binnen het Cloud Eco systeem van Lightroom. Dit zijn de bestanden die werkelijk worden gesynchroniseerd vanuit Lightroom Classic naar de Cloud.

Slimme voorvertoningen zijn DNG-bestanden van slechts één formaat, 2560 pixels breed. Ze zijn elk ongeveer 1 MB groot.

Thumbnail previews (miniaturen)
Miniaturen worden gecreëerd op het moment dat je een foto bewerkt zodat je meteen het effect daarvan ziet in de filmstrip en navigator. Bij de standaard voorvertoningen gebeurt dit namelijk niet, die worden pas geüpdatet met de bewerking op het moment dat je de betreffende foto in de bibliotheek module opent (in raster-, loep-, of filmweergave). De 1:1 voorvertoningen worden zelfs in het geheel niet automatisch bijgewerkt, die moet je handmatig updaten wanneer je dat wenst.


vrijdag 4 september 2020

Beeldlicenties via Google images

Als je beeldmateriaal zoekt op Google dan is het vaak lastig om erachter te komen waarvoor het materiaal precies gebruikt mag worden.

Veel mensen en organisaties hebben conflicten gehad met Google over het gebruik/misbruik van o.a. beeldmateriaal en het lijkt erop dat Google hier verbeteringen in wil aanbrengen (link), althans vanaf 1 september is ‘Image License in Google Images’ live.

Deze wijziging moet er in ieder geval voor zorgen dat goedwillende gebruikers jou weten te vinden wanneer ze een foto van je willen gebruiken. Voor de kwaadwillende zal de verandering (helaas) geen effect hebben.

Als je een foto zoekt, zoals in bovenstaand voorbeeld een zeilboot, dan krijg je verschillende zoekresultaten. In de linkerafbeelding hierboven, onderin bij de thumbnails zie je of een foto ‘Licensable’ (‘Licentieerbaar’ in het Nederlands) is. Wanneer je daarop klikt kom je op het rechterscherm uit en zie je wat meer informatie. Vanuit hier kun je doorklikken naar de details:

Veld 1: Link (URL) naar een pagina die beschrijft wat voor soort licentie van toepassing is voor deze foto.

Veld 2: Link (URL) naar de pagina waar de gebruiker de afbeelding daadwerkelijk kan ‘kopen’ (licentiëren).

Er komen twee manieren beschikbaar waarop Google licentie informatie bij de foto’s kan tonen zoals in het voorbeeld hierboven:

  1. Via ‘Gestructureerde data’ voeg je de informatie aan ‘de achterkant’ toe, via de code van je website. Voor de meeste mensen zal dit te onhandig zijn.
  2. Via metadata in de IPTC velden, dit is een veel toegankelijker route. M.b.v. Lightroom (Classic) bijvoorbeeld kun je deze informatie heel eenvoudig aan je afbeeldingen toevoegen voordat je ze ergens online neerzet:

Open in Lightroom Classic de ‘Bibliotheek modus’ en selecteer ‘IPTC’ bij het ‘Metagegevens’ paneel:

Vul onder IPTC in ieder geval de vier blauw omrande velden in:

  • Fotograaf, vul hier de maker van het beeld in 
  • Website of preciezer, de link naar de pagina waar de bezoeker kan zien hoe hij een licentie kan krijgen
  • Creditregel, vul hier de naam in van het bedrijf die eigenaar is van het beeldmateriaal. Meestal ben je dat zelf of je (foto)bedrijf 
  • Copyrightinfo-URL, vul hier dezelfde link in naar de pagina met gegevens hoe een licentie kan worden verkregen

Het advies van Google is verder om naast deze vier velden nog een extra veld te vullen. Selecteer hiervoor ‘IPTC-extensie’ in de ‘Metagegevens’ paneel ga naar de ‘Licentieverlener’ (zie blauw omlijnd):

Wanneer je op het horizontale lijntje rechts naast ‘Licentieverlener’ klikt worden de velden zichtbaar die je hier in kunt vullen:

Ik kon niet vinden waar 'UCA' voor staat maar waarschijnlijk had dit ‘URL’ moeten zijn. In ieder geval komt hier dezelfde link te staan naar de website met licentie informatie die je hiervoor al twee keer hebt ingevuld.

Uiteraard kun je al deze gegevens ook in een metadata voorinstelling zetten zodat je alle vijf zaken kunt toekennen aan één of meerdere foto’s tegelijk:

Gebruik daarvoor een nieuwe foto, waar nog geen metadata aan toe is gevoegd. Vul alle velden zoals hierboven beschreven in en klik op het veld achter ‘Voorinstelling’:

Klik daarna op ‘Voorinstellingen bewerken’

Doorloop alle velden en verzeker je ervan dat er geen andere velden dan deze vijf zijn aangevinkt.

Klik nu in het veld ‘Voorinstelling’ (waar ‘aangepast’ staat) en kies ervoor om de aanpassingen op te slaan als een nieuwe voorinstelling. Geef deze een passende naam.

Als je al je foto’s van deze gegevens zou willen voorzien, zoals je copyright gegevens, dan kun je deze voorinstelling ook toevoegen aan je importvoorinstelling.

Gebruik je Photo Mechanic in plaats van (of naast) Lightroom dan heb je wellicht iets aan deze beschrijving op Camera bits.

zaterdag 8 augustus 2020

AI in Fotografie – Deel 2

Ditmaal twee onderwerpen over AI (Artificial Intelligence) binnen de fotografie. In deel 1 (feb 2019) behandelde ik ook al een paar voorbeelden en ging ik in op beeldherkenningsalgoritmes om foto’s te zoeken zonder dat die voorzien zijn van trefwoorden.

In dit deel:

1.     Tip: Adobe Sensei in combinatie met Lightroom Classic

2.     Nieuws: Narrative Select, een hulpmiddel dat je helpt met het selectieproces


Adobe Sensei en Lightroom Classic

Wat Sensei is leg ik uit in eerdergenoemde blog maar in het kort gaat het om een beeldherkenningsalgoritme die je foto’s laat vinden zonder dat die voorzien hoeven te zijn van de trefwoorden waarmee je zoekt. Het AI algoritme onderzoekt het beeld zelf dus en in genoemde blog laat ik daar wat praktijkvoorbeelden van zien.

Adobe heeft dit algoritme alleen geïntegreerd in de Lightroom clouddiensten (zoals Lightroom Mobile en Lightroom Web). Sensei is helaas niet geïntegreerd in de Lightroom versie die veel gebruikers van oudsher gebruiken en die tegenwoordig Lightroom Classic heeft.

Wanneer je Lightroom Classic gebruikt kun je tóch profiteren van de Sensei AI mogelijkheden van Adobe. De tip is als volgt:

Stel je hebt foto’s in Classic die nog niet van trefwoorden zijn voorzien. Maak daar dan allereerst een verzameling van en synchroniseer die naar de Cloud. Open Lightroom Mobile of Lightroom Mobile en doorzoek de set met foto’s m.b.v. een bepaald trefwoord. Van de zoekresultaten maak je dan een ‘album’ die snel daarna tevoorschijn zal komen in Classic als een nieuwe verzameling. Deze verzameling foto’s is nu snel en eenvoudig te voorzien van het betreffende trefwoord.

Een beetje omslachtig wellicht maar ben je op zoek naar iets specifieks of gaat het om een grote batch foto’s dan is dit wellicht een handig optie om achter de hand te hebben!

Narrative Select

Het tweede onderwerp van vandaag betreft iets nieuws, althans ik heb nog niet eerder een dergelijke ontwikkeling gezien. De ontwikkelaar beweert met ‘Narrative Select’ je te kunnen helpen in het ‘culling’ proces; het doorlopen van je nieuw gemaakte foto’s en bepalen welke je wilt houden en welke niet. Met de toenemende aantal foto’s die de meesten van ons maken kost dit uitzoeken steeds meer van onze (kostbare) tijd. Een handig hulpje is dus welkom! Een opmerking die ik voorbij heb zien komen en die wel degelijk enig houd snijdt is dat je er natuurlijk ook voor kunt kiezen om je sluiterknop niet ingedrukt te houden om met 5 beelden per seconde (of meer) tientallen vrijwel dezelfde foto’s te maken. In de tijd van film, toen je dit nog veel koste, werd vaker zorgvuldiger bepaald wanneer die sluiter nu precies in te drukken en hoe lang. Dan hoef(de) je uiteraard achteraf veel minder foto’s uit te zoeken.

Terug naar Narrative Select. De maker uit Nieuw-Zeeland is niet nieuw op de fotomarkt, ze maakten al een blogtool, ‘Narrative Publish’ maar nu dus deze nieuwe ontwikkeling die echter nog niet leverbaar is. Er is een Beta programma waarvoor ik me aangemeld heb. Zodra ik in de gelegenheid ben zal ik het product testen en daarvan hier een review plaatsen. Iedereen die zich ook wil aanmelden voor de Beta, dat kan hier. Via deze link help je mij bovendien om sneller in het Beta programma toegelaten te worden!

Uiteraard is er al wel het een en ander bekend over Narrative Select, dat maakt juist dat mijn interesse erin aangewakkerd is.

De plaats van Narrative Select binnen je Worfkflow is het selectieproces. Hoe dit zich precies verhoudt tot het ‘ingestion’ proces (het binnenhalen van je foto’s naar de computer) met een programma als Lightroom is me nog niet helemaal duidelijk maar aan de beschrijving te zien, ziet Narrative het als een stap daarvoor:

Het beeld wat ik hiervan krijg is dat je eerst de foto’s van je camera of kaart naar je computer moet kopiëren, daarna door Narrative Select halen en daarna importeren in Lightroom.

Eigenlijk zit ik niet te wachten op deze extra twee stappen net nu ik de afgelopen jaren het aantal handelingen drastisch heb weten te reduceren. Bij het binnenhalen van mijn foto’s d.m.v. Lightroom zorg ik er bijvoorbeeld voor dat ze meteen op de juiste plek binnen komen, dat er een back-up versie op een andere plaats terecht komen en dat de foto’s hernoemd worden naar mijn naamgevingsconventie. 

In de review die ik ga doen zal ik me hier echter nader in verdiepen als ook de ‘ship’ functie die Narrative Select blijkbaar specifiek heeft om na het selectiegebeuren alles meteen over te hevelen naar Lightroom.

Enkele eigenschappen die ik alvast over Narrative Select heb kunnen vinden zijn:

  • Initiële ondersteuning voor diverse RAW formaten van Nikon, Canon en Fuji, JPG en DNG
  • Foto’s worden niet geüpload naar de cloud, het AI algoritme werkt lokaal op de computer
  • Er kan ingezoomd worden op de afbeeldingen met de spatiebalk (net als in Lightroom) en automatisch ingezoomd op gezichten
  • Delen van het beeld (bijvoorbeeld gezichten) kunnen vergrendeld worden om gemakkelijk te kunnen vergelijken met andere opnames
  • Optische indicatoren of een onderwerp scherp is of niet
  • Het is nog niet bekend wat Narrative Select gaat kosten maar vermoedelijk komen ze met een abonnement model
  • Momenteel is er een Beta programma voor MacOS maar nog niet voor Windows. Er schijnt wel een Windows versie te gaan komen

Voor wie meer wil weten kan ook nog deze promovideo op Youtube bekijken:


Aanvulling dd 3 september 2020

Inmiddels heb ik even kort met Narrative Select kunnen stoeien en het blijkt vooral een steun bij portretten en groepsfoto's. Door de optische indicaties of de scherpte wel op een oog ligt en of de ogen gesloten zijn kun je sneller je 'pics' bepalen dan voorheen. Of deze winst opweegt tegen de extra handelingen ligt vooral aan hoe je je workflow momenteel hebt ingericht. voor andere toepassingen dan mensen fotograferen biedt Narrative Select geen voordelen. Het product had dan ook beter Narrative people select kunnen heten of zoiets. 

Narrative Select gaat 75,- US dollar per jaar kosten.

dinsdag 14 juli 2020

Nieuwe zoekinterface voor WikimediaCommons

Hay Kranen bouwde een alternatief voor het zoekscherm van WikiMediaCommons dat beter functioneert en bovendien gebruiksvriendelijker is, Hay’s ‘Structured Search’.


WikiMediaCommons is de beelddatabank achter Wikipedia met ruim 60 miljoen beelden.

Je mag de beelden zelf meestal ook vrij gebruiken maar dan moet je dus wel geschikt materiaal kunnen vinden. Het probleem is dat de metadata* (de gegevens die over het beeldmateriaal zijn vastgelegd) niet eenduidig of incompleet zijn vastgelegd. Hay Kranen bouwde echter een nieuwe zoekinterface die hier verbetering in brengt en bovendien een stuk gebruikersvriendelijker is dan de originele zoekoptie van WikimediaCommons. Op woensdag 10 juni 2020 was hij te gast bij Herbert Blankensteijn in deze podcast van BNR (v.a. circa 12 minuten). In zijn nieuwsbrief ‘de Circulaire’ had Hay enkele weken eerder al over zijn initiatief geschreven.


In de zoekinterface van WikimediaCommons zelf is het bijvoorbeeld lastig om beelden vinden met metadata in een andere taal. Zoek je een boom dan vindt je dus geen foto’s die getagd zijn met ‘tree’ of ‘baum’


Hay heeft geen nieuwe zoekmachine gemaakt maar maakt gebruik van bestaande componenten en gebruikt die slim en combineert ze. Een belangrijk component is ‘’gestructureerde data” waarmee twee problemen worden aangepakt:


  1. De meertaligheid zoals in het voorbeeld hierboven genoemd (boom, tree, baum)
  2. De meerdere betekenissen die een woord kan hebben. Kiwi bijvoorbeeld kan slaan op een vrucht, een vogel of een inwoner van Nieuw Zeeland. Wanneer je op zoek bent naar foto’s van de vogel dan wil je die ook alleen in je zoekresultaten zien.


Bij gestructureerde data hebben daarom alle begrippen (items) een eigen unieke nummer (het Q-nummer). Deze worden door WiKidata uitgegeven, een ander Wiki project waar de Q-nummers worden beheerd (daar waar in Wikipedia de artikelen worden beheerd en audio- en beeldmateriaal in WikiMediaCommons) De vogel Kiwi heeft dan ook een ander nummer dan de vrucht.


Als een fotograaf nu een foto van een Kiwi (vogel) uploadt naar WikiMedia Commons dan kan hij of zij meteen de juiste link aanbrengen naar het ‘Kiwi’begrip (namelijk die van de vogel). Op dit moment is nog maar een paar procent van de beelden voorzien van deze gestructureerde data maar dat wordt snel beter (iedereen kan ze aanbrengen en bij nieuwe uploads wordt er actief om gevraagd). Daarna zijn de betreffende afbeeldingen een stuk beter vindbaar met behulp van het juiste zoekgereedschap, bijvoorbeeld Hay’s ‘Structured Search’

 

Als ik nu ‘kiwi’ in het zoekvenster typ verschijnen meteen de ‘categorieën’ waaronder het woord Kiwi beschikbaar is. Omdat ik op zoek ben naar de vogel klik ik de bovenste aan met het Q-nummer Q43642 en vervolgens krijg ik alleen maar vogels in mijn zoekresultaten.


* Beeldmateriaal zoeken gebeurt over het algemeen aan de hand van de gegevens die erover zijn vastgelegd in plaats van echte beeldherkenning. Zoek je een foto van een boom dan zoekt de zoekmachine dus niet echt naar afbeelding die de software herkent als een boom maar kijkt hij in de metadata (zoals bijvoorbeeld het veld ‘trefwoorden’). Als daar het woord ‘boom’ is ingevuld wordt het betreffende beeld in de zoekresultaten getoond. Voor meer achtergrond over metadata zie ook mijn artikelen over Keywording, Keywording deel2 of dit deel over ‘echte’ beeldherkenning.