Auto­ma­ti­sier­tes Screening

Deep-Learning-Modell erkennt Befunde in Retina-Fundusbildern

27. Dezember 2019

SEOUL (Bier­mann) – Deep-Lear­ning-Algo­rith­men können zuver­läs­sig verschie­de­ne Befun­de in Makula-zentrier­ten Fundus­bil­dern erken­nen. Das Modell zeigte eine Leis­tung, die mit den von den medi­zi­ni­schen Exper­ten erbrach­ten Leis­tun­gen mithal­ten konnte, insbe­son­de­re bei der Erken­nung von Einblu­tun­gen, hartem Exsu­dat, Membra­nen, Maku­la­fora­men, myeli­ni­sier­ten Nerven­fa­sern und glau­kom­a­tö­sen Papil­len­ver­än­de­run­gen. Für die korea­ni­sche Arbeits­grup­pe, welche die Ergeb­nis­se in der Zeit­schrift „Ophthal­mo­lo­gy“ veröf­fent­licht hat, liegt daher eine Verwen­dung als auto­ma­ti­sier­tes Scree­ningsys­tem für Retina-Fundus­bil­der im klini­schen Setting nahe.

Zur Entwick­lung und Evalu­ie­rung der Deep-Lear­ning-Model­le im Rahmen einer Quer­schnitt­stu­die verwen­de­ten die Korea­ner 309.786 Mess­wer­te aus 103.262 Bildern. Zusätz­lich wurden zwei weite­re exter­ne Daten­sät­ze (Indian Diabe­tic Reti­no­pa­thy Image Data­set und e‑ophtha) verwen­det. Ein drit­ter exter­ner Daten­satz (Messi­dor) wurde zum Vergleich der Model­le mit mensch­li­chen Exper­ten verwendet.

Makula-zentrier­te Fundus­bil­der der Netz­haut aus dem Retina-Bild­ar­chiv des Bundang-Kran­ken­hau­ses der Seoul Natio­nal Univer­si­ty wurden mithil­fe von Deep-Lear­ning-Algo­rith­men auf 12 wich­ti­ge Befun­de hin unter­sucht (Einblu­tung, hartes Exsu­dat, Cotton-Wool-Patches, Drusen, Membra­nen, Maku­la­fora­men, myeli­ni­sier­te Nerven­fa­sern, chorio­re­ti­na­le Atro­phie oder Narben, jede vasku­lä­re Abnor­ma­li­tät, reti­na­ler Nerven­fa­ser­schicht­de­fekt, glau­kom­a­tö­se Papil­len­ver­än­de­rung und nicht glau­kom­a­tö­se Papillenveränderung).

Die „area under the recei­ver opera­ting charac­te­ris­tic curve“ (AUC) sowie die Sensi­ti­vi­tät und Spezi­fi­tät der Deep-Lear­ning-Algo­rith­men im höchs­ten harmo­ni­schen Mittel wurden evalu­iert und mit der Leis­tung der Retina-Spezia­lis­ten vergli­chen. Die Visua­li­sie­rung der Läsio­nen wurde quali­ta­tiv analysiert.

Die AUCs waren bei allen Befun­den zwischen 96,2 und 99,9% hoch. Läsi­ons-Heat-Maps hoben markan­te Regio­nen in verschie­de­nen Befun­den effek­tiv hervor. Die AUCs für Befun­de im Zusam­men­hang mit diabe­ti­scher Reti­no­pa­thie, die im Indian Diabe­tic Reti­no­pa­thy Image Data­set und im e‑oph­tha-Daten­satz getes­tet wurden, lagen zwischen 94,7 und 98,0%.

(isch)

Autor: Son J et al.
Korrespondenz: Sang Jun Park; sangjunpark@snu.ac.kr
Studie: Development and Validation of Deep Learning Models for Screening Multiple Abnormal Findings in Retinal Fundus Images
Quelle: Ophthalmology 2019; May 31.
Web: https://doi.org/10.1016/j.ophtha.2019.05.029

html

Aus rechtlichen Gründen (Heilmittelwerbegesetz) dürfen wir die Informationen nur an Fachkreise weitergeben.