Finde Jedes Foto Mit Worten: Wie Immichs KI-gesteuerte Smart Search Funktioniert
Du hast fünftausend Fotos auf deinem Server. An einem Abend möchtest du ein Foto aus dem letzten Sommer finden: einen Sonnenuntergang über dem Wasser mit jemandem, der einen roten Regenschirm hält. Du scrollst durch deine Bibliothek. Eine Stunde vergeht. Du hast nichts gefunden.
Das ist das Problem, das die traditionelle Fotosearch - und die meisten Fotoverwaltungssysteme - nie wirklich gelöst haben. Sie wollen, dass du alles tagst. Die Keyword-Suche erfordert, dass du dich daran erinnerst, was du beim Hochladen des Fotos eingegeben hast. Standort- und Datumsfilter helfen, aber sie reichen nicht aus, wenn du nach einem Gefühl, einer Szene oder einer bestimmten Farbe suchst.
Immich löst dies anders. Seine Smart Search-Funktion nutzt ein KI-Modell namens CLIP, um wirklich zu verstehen, was auf deinen Fotos abgebildet ist. Du kannst in natürlicher Sprache suchen: “Sonnenuntergang am Strand” oder “Hund im Park” oder “jemand isst Kuchen drinnen”. Das System findet, was du suchst, ohne ein einziges Tag.
Was ist CLIP?
CLIP ist ein neuronales Netz, das von OpenAI als Open-Source-Projekt entwickelt wurde. Es wurde trainiert, Bilder und Text gleichzeitig zu verstehen. Wenn du nach “rotem Regenschirm” suchst, matcht CLIP keine Keywords oder Metadaten. Stattdessen vergleicht es deine Suchanfrage mit dem visuellen Inhalt jedes Fotos in deiner Bibliothek und ordnet sie nach semantischer Ähnlichkeit. Es versteht, dass “Person mit Regenschirm” und “jemand mit Regenschirm” dasselbe bedeuten.
Hier ist der entscheidende Punkt: CLIP läuft vollständig auf deinem Server, innerhalb von Immich. Deine Fotos werden niemals an OpenAI, Google oder einen externen Service versendet. Die gesamte Verarbeitung erfolgt lokal auf deiner Hardware. Deshalb unterscheidet sich Immichs Smart Search grundlegend von der KI-Fotosuche großer Cloud-Fotoplattformen.
Wonach Du Suchen Kannst
Smart Search bearbeitet eine breite Palette von Anfragen:
- Objekte und Personen: “Hund”, “Fahrrad”, “Person mit Sonnenbrille”
- Szenen und Orte: “Wald”, “Strand”, “Küche”, “Büro”, “Berge bei Sonnenuntergang”
- Farben und Komposition: “rote Autos”, “Schwarzweiß”, “blauer Himmel”
- Aktivitäten: “jemand lacht”, “Leute tanzen”, “Person spielt Gitarre”
- Emotionen und Stimmungen: “glücklich”, “traurig”, “friedlich”, “chaotisch”
- Details: “Nahaufnahme einer Blume”, “Hände halten etwas”, “Text auf einem Schild”
CLIP ist flexibel genug, um sowohl spezifische als auch abstrakte Anfragen zu verstehen. Je beschreibender du bist, desto besser sind die Ergebnisse.
Mehrere Suchmöglichkeiten
Immich endet nicht bei KI-gestalteter Suche. Es kombiniert Smart Search mit traditioneller Metadaten-Suche:
- Metadaten-Filter: Aufnahmedatum, Ort (falls in EXIF verfügbar), Kameramodell, Objektiv, ISO, Blende
- Personensuche: Falls du Personen in Fotos identifiziert hast, nach Namen suchen
- Albumsuche: In einem bestimmten Album suchen
- Kombinierte Suche: Verwende Smart Search zusammen mit Datums- oder Ortsfiltern, um Ergebnisse einzugrenzen
Du kannst nach “Sonnenuntergang am Strand” suchen und dann nach “August 2024” filtern, um genau das zu finden, was du suchst. Die Flexibilität ist vorhanden, aber du bist nicht daran gebunden.
Warum Datenschutz Hier Wichtig Ist
Die meisten KI-Fotosuche-Services (wie Google Fotos, Apple Fotos oder Amazon Fotos) senden deine Fotos oder Metadaten zur Analyse an ihre Server. Dies ermöglicht es ihnen, ihre KI anzutreiben, bedeutet aber auch, dass deine visuellen Daten von Dritten verarbeitet, protokolliert und möglicherweise beibehalten werden.
Immich verfolgt einen anderen Ansatz. Das CLIP-Modell läuft auf deinem Server. Deine Fotos bleiben dir gehören. Keine externen API-Aufrufe, keine Datenübertragung, keine Verarbeitung durch Dritte. Wenn du dir Sorgen darüber machst, was mit deinen Fotos passiert, besonders bei sensiblen Familienfotos oder professionellen Bildern, ist dies wichtig.
Gute Ergebnisse Erzielen
Smart Search ist nicht magisch und funktioniert besser mit etwas Anleitung:
- Sei beschreibend: “Sonnenuntergang” funktioniert, aber “goldenenes Stundenlicht über Wasser” ist besser
- Nutze natürliche Sprache: Formuliere Anfragen wie du das Foto einem Freund beschreiben würdest
- Einzelne Keywords können funktionieren: “Hund” oder “Strand” finden oft relevante Fotos
- Kombiniere mit Filtern: Wenn Smart Search dir zu viele Ergebnisse gibt, grenze nach Datum oder Ort ein
- Die erste Indizierung braucht Zeit: Wenn du Smart Search zum ersten Mal aktivierst, muss Immich alle deine Fotos verarbeiten. Dies kann bei großen Bibliotheken Stunden dauern. Du kannst während der Verarbeitung suchen; die Ergebnisse verbessern sich, je mehr Fotos indiziert werden.
Der Praktische Unterschied
Der wirkliche Unterschied zwischen Smart Search und traditioneller Suche ist dieser: Du kannst deine Fotos endlich so durchsuchen, wie du über sie denkst. Du musst nicht beim Hochladen Tag-Anforderungen antizipieren. Du musst keine Metadaten merken. Du beschreibst, wonach du suchst, in Worten, und das System versteht es.
Wenn du dich je von einer überkomlizieren Fotobibliotheek gefangen gefühlt hast oder die Suche aufgegeben hast, weil traditionelle Methoden mühsam waren, wurde Immichs Smart Search für dich entwickelt.
Bereit, es auszuprobieren? Smart Search ist in Immich integriert und bereit zur Verwendung auf deiner von PixelUnion verwalteten Instanz.