Vind Elke Foto Met Woorden: Hoe Immich's AI-Aangedreven Smart Search Werkt
Je hebt vijfduizend foto’s op je server. Een avond wil je een foto uit vorige zomer vinden: een zonsondergang boven het water met iemand die een rode paraplu vasthoudt. Je scrolt door je bibliotheek. Een uur gaat voorbij. Je hebt niets gevonden.
Dit is het probleem dat traditionele fotozoeken - en de meeste fotobeheer systemen - nooit echt hebben opgelost. Ze willen dat je alles labelt. Trefwoordzoeken vereist dat je je herinnert wat je typte toen je de foto uploadt. Locatie- en datumfilters helpen, maar ze zijn onvoldoende wanneer je op zoek bent naar een gevoel, een scène of een bepaalde kleur.
Immich lost dit anders op. De Smart Search-functie gebruikt een AI-model genaamd CLIP om echt te begrijpen wat in je foto’s staat. Je kunt in natuurlijke taal zoeken: “zonsondergang op het strand” of “hond in het park” of “iemand eet cake binnenshuis”. Het systeem vindt wat je zoekt zonder een enkel label.
Wat is CLIP?
CLIP is een neuraal netwerk dat door OpenAI is ontwikkeld als open-source project. Het is getraind om zowel afbeeldingen als tekst tegelijk te begrijpen. Als je zoekt naar “rode paraplu”, past CLIP geen trefwoorden of metagegevens toe. In plaats daarvan vergelijkt het je zoekfrase met de visuele inhoud van elke foto in je bibliotheek en rangschikt ze op basis van semantische gelijkenis. Het begrijpt dat “persoon met paraplu” en “iemand die een paraplu vasthoudt” hetzelfde betekenen.
Hier is het cruciale gedeelte: CLIP draait volledig op je server, binnen Immich. Je foto’s worden nooit naar OpenAI, Google of een externe service verzonden. Alle verwerking gebeurt lokaal, op je hardware. Dit is waarom Immich’s Smart Search fundamenteel verschilt van de AI-fotozoeken van grote cloudoto-platforms.
Waarnaar Je Kunt Zoeken
Smart Search handelt een breed scala aan vragen af:
- Objecten en personen: “hond”, “fiets”, “persoon met zonnebril”
- Scènes en plaatsen: “bos”, “strand”, “keuken”, “kantoor”, “bergen bij zonsondergang”
- Kleuren en compositie: “rode auto’s”, “zwart en wit”, “blauwe lucht”
- Activiteiten: “iemand lacht”, “mensen dansen”, “persoon speelt gitaar”
- Emoties en stemmingen: “blij”, “verdrietig”, “vredig”, “chaotisch”
- Details: “close-up van een bloem”, “handen die iets vasthouden”, “tekst op een bord”
CLIP is flexibel genoeg om zowel specifieke als abstracte vragen te begrijpen. Hoe beschrijvender je bent, hoe beter de resultaten.
Meerdere Manieren Om Te Zoeken
Immich stopt niet bij AI-aangedreven zoeken. Het combineert Smart Search met traditioneel metagegevenszoeken:
- Metagegevensfilters: datum genomen, locatie (indien beschikbaar in EXIF), cameramodel, lens, ISO, diafragma
- Personen zoeken: als je mensen in foto’s hebt geïdentificeerd, zoeken op naam
- Album zoeken: zoeken binnen een specifiek album
- Gecombineerde zoeken: gebruik Smart Search naast datum- of locatiefilters om resultaten in te perken
Je kunt zoeken naar “zonsondergang op het strand” en vervolgens filteren op “augustus 2024” om precies te vinden wat je zoekt. De flexibiliteit is er, maar je bent er nooit door vastgepind.
Waarom Privacy Hier Belangrijk Is
De meeste AI-fotozoekservices (zoals Google Foto’s, Apple Foto’s of Amazon Foto’s) sturen je foto’s of metagegevens naar hun servers voor analyse. Dit stelt hen in staat hun AI aan te drijven, maar het betekent ook dat je visuele gegevens door een derde partij worden verwerkt, geregistreerd en mogelijk bewaard.
Immich kiest voor een ander aanpak. Het CLIP-model draait op je server. Je foto’s blijven van jou. Geen externe API-oproepen, geen gegevensoverdracht, geen verwerking door derden. Als je je zorgen maakt over wat er met je foto’s gebeurt, vooral gevoelige familiefoto’s of professionele afbeeldingen, is dit belangrijk.
Goede Resultaten Behalen
Smart Search is niet magisch en werkt beter met wat begeleiding:
- Wees beschrijvend: “zonsondergang” werkt, maar “gouden uurlicht boven water” is beter
- Gebruik natuurlijke taal: formuleer vragen zoals je de foto aan een vriend zou beschrijven
- Enkele trefwoorden kunnen werken: “hond” of “strand” zullen vaak relevante foto’s vinden
- Combineer met filters: als Smart Search je te veel resultaten geeft, beperk je jezelf tot datum of locatie
- Eerste keer indexeren kost tijd: wanneer je Smart Search voor het eerst inschakelt, moet Immich al je foto’s verwerken. Dit kan uren duren voor grote bibliotheken. Je kunt zoeken terwijl het bezig is; resultaten verbeteren naarmate meer foto’s worden geïndexeerd.
Het Praktische Verschil
Het echte verschil tussen Smart Search en traditioneel zoeken is dit: je kunt je foto’s eindelijk zoeken op de manier waarop je erover denkt. Je hoeft niet te anticiperen op labelbehoeften wanneer je uploadt. Je hoeft geen metagegevens te onthouden. Je beschrijft wat je zoekt in woorden, en het systeem begrijpt het.
Als je je ooit gevangen hebt gevoeld door een ingewikkelde fotobibliotheek, of het zoeken hebt opgegeven omdat traditionele methoden vermoeiend voelden, is Immich’s Smart Search voor jou ontworpen.
Wil je het proberen? Smart Search is ingebouwd in Immich en klaar om te gebruiken op je door PixelUnion beheerde instance.