slide-1.original.jpg slide-2.original.jpg
16th SFI IT Academic Festival
16 edition cover

16th edition

2021

Jak zwiększyć zaufanie do wyników głębokich sieci neuronowych?

Edition: AI Week #SFIonline

Date: March 11, 2021, 5 p.m.

Type: Lectures

Language: Polish

tzAI - miniaturka.png
Abstract

Głębokie sieci neuronowe znajdują szerokie zastosowanie, między innymi w tak wrażliwych dziedzinach jak wspomaganie diagnostyki medycznej czy systemy autonomiczne. Z tego powodu coraz częściej pojawiają się pytania dotyczące tego, co wpływa na określone ich decyzje. W rezultacie, sieci neuronowe nie mogą pozostać wyłącznie czarno-skrzynkowymi modelami, lecz - zgodnie z dyrektywą GDPR Unii Europejskiej - oprócz predykcji powinny również zwracać zrozumiałe dla człowieka wyjaśnienie swojej decyzji. Można je uzyskać dwojako: poprzez stosowanie metod wyjaśnialnej sztucznej inteligencji na wcześniej wytrenowanym modelu (metody typu post-hoc) lub poprzez zaprojektowanie modelu z wbudowanymi mechanizmami interpretowalności (metody typu self-explained). Podczas wykładu zaprezentowane zostaną oba podejścia wraz z ich zastosowaniem w naturalnych i medycznych bazach danych. Ponadto, przyjrzymy się mechanizmom biologicznym, które inspirują i wskazują kierunki radzenia sobie z tym zagadnieniem.

Patroni medialni Tygodnia z AI