BETHESDA (Biermann) Für die vorliegende Studie wurde ein Deep Learning-Modul entwickelt, welches das Vorhandensein einer geographischen Atrophie (GA) in vorhandenen Fundusaufnahmen nachweisen sollte. Zwei weitere Module wurden entwickelt, um eine zentrale geographische Atrophie zu detektieren.
Insgesamt wurden 59.812 Fundusfotos von 4582 Teilnehmern der AREDS-Studie (Age-Related Eye Disease Study) verwendet. Die Auswertung erfolgte zusätzlich durch entsprechend ausgebildete Fachleute an Reading-Centern nach standardisiertem Protokoll.
Mittels Deep Learning sollte das Vorhandensein einer geopgraphischen Atrophie von Augen ohne AMD und mit AMD in verschiedenen Stadien detektiert werden. Ein weiteres Modul sollte das Vorliegen einer zentralen GA in der gleichen Population erkennen. Das dritte Modul sollte bei vorhandener GA eine zentrale GA erkennen. Verglichen wurden die Ergebnisse mit denen von 88 Retina-Spezialisten. Analysiert wurden Area under Curve (AUC), Richtigkeit, Sensitivität, Spezifität und Präzision.
Die Deep Learning Module wiesen eine AUC von 0,933–0,976, 0,939–0,976 und 0,827–0,888 für die einzelnen Module auf.
Das GA-Detection-Modul zeigte eine Richtigkeit von 0,965 (95% Konfidenzintervall [KI], 0,959–0,971), eine Sensitivität von 0,692 (0,560–0,825), eine Spezifität von 0,978 (0,970–0,985) und eine Präzision von 0,584 (0,491–0,676) auf, während sich bei den Retina-Experten Werte von 0,975 (0,971–0,980), 0,588 (0,468–0,707), 0,982 (0,978–0,985) und 0,368 (0,230–0,505) ergaben.
Das CGA-Modul zeigte Werte von 0,966 (0,957–0,975), 0,763 (0,641–0,885), 0,971 (0,960–0,982) und 0,394 (0,341–0,448) während das Zentralitäts-Modul Werte von 0,762 (0,725–0,799), 0,782 (0,618–0,945), 0,729 (0,543–0,916) und 0,799 (0,710–0,888) aufwies.
Mittels Deep Learning war somit eine automatische GA-Erkennung mit hoher Richtigkeit möglich. Die Methode im Vergleich mit den Ergebnissen menschlicher Retina-Spezialisten nicht unterlegen und konnte auch zur Identifikation der CGA eingesetzt werden.
(ak)