MADISON (Biermann) – KI-Algorithmen haben beeindruckende Leistungen bei der Segmentierung von geographischer Atrophie (GA) aus Fundus-Autofluoreszenz-Bildern (FAF) gezeigt. Dabei ist die Auswahl der Architektur der künstlichen Intelligenz (KI) eine wichtige Variable bei der Modellentwicklung. Eine aktuelle Arbeit zeigt, dass sich die Wahl der KI-Architektur auf die GA-Segmentierungsleistung auswirken kann.
Um den effektivsten Ansatz für die GA-Segmentierung zu ermitteln, untersuchten die Wissenschaftler 12 verschiedene KI-Architekturen, jeweils mit unterschiedlichen Kombinationen von Encodern und Decodern. Die Architekturen umfassten drei Dekodierer – FPN (Feature Pyramid Network), UNet und PSPNet (Pyramid Scene Parsing Network) – und dienten als Grundgerüst für die Segmentierungsaufgabe. Encoder wie EfficientNet, ResNet (Residual Networks), VGG (Visual Geometry Group) und Mix Vision Transformer (mViT) spielen laut der Forscher eine Rolle bei der Extraktion optimaler latenter Merkmale für eine genaue GA-Segmentierung. Die Leistung wurde durch den Vergleich der GA-Flächen zwischen menschlichen und KI-Vorhersagen und dem Dice-Koeffizienten (DC) gemessen. Der Trainingsdatensatz umfasste 601 FAF-Bilder aus der AREDS2-Studie und die Validierung 156 FAF-Bilder aus der GlaxoSmithKline-Studie.
Die Analysen der Wissenschaftler ergaben, dass die mittlere absolute Differenz zwischen den vom Grader gemessenen und den von der KI vorhergesagten Flächen von ‑0,08 (95%-KI ‑1,35, 1,19) bis 0,73 mm2 (95%-KI ‑5,75, 4,29) reichte und der DC zwischen 0,884 und 0,993 lag. UNet und FPN mit mViT waren den Autoren nach die besten Modelle, und PSPNet schnitt am schlechtesten ab.
(sas)