19 edycja
Studenckiego Festiwalu Informatycznego
19 edycja
2024
Jak zwiększyć zaufanie do wyników głębokich sieci neuronowych?
Głębokie sieci neuronowe znajdują szerokie zastosowanie, między innymi w tak wrażliwych dziedzinach jak wspomaganie diagnostyki medycznej czy systemy autonomiczne. Z tego powodu coraz częściej pojawiają się pytania dotyczące tego, co wpływa na określone ich decyzje. W rezultacie, sieci neuronowe nie mogą pozostać wyłącznie czarno-skrzynkowymi modelami, lecz - zgodnie z dyrektywą GDPR Unii Europejskiej - oprócz predykcji powinny również zwracać zrozumiałe dla człowieka wyjaśnienie swojej decyzji. Można je uzyskać dwojako: poprzez stosowanie metod wyjaśnialnej sztucznej inteligencji na wcześniej wytrenowanym modelu (metody typu post-hoc) lub poprzez zaprojektowanie modelu z wbudowanymi mechanizmami interpretowalności (metody typu self-explained). Podczas wykładu zaprezentowane zostaną oba podejścia wraz z ich zastosowaniem w naturalnych i medycznych bazach danych. Ponadto, przyjrzymy się mechanizmom biologicznym, które inspirują i wskazują kierunki radzenia sobie z tym zagadnieniem.