Лекция от представителя Тинькофф Екатерины Чуйковой о нейронных сетях для распознавания речи, метриках и архитектурах. 00:00 интро от DSC 00:55 план лекции 2:00 как работают convolutional layers 3:51 dense/fully-connected layers 4:22 как работают rucerrent layers 6:10 как используем reccurent layers для языка 7:24 bidirectional layers 8:01 что такое droupout? 8:28 что такое batch normalization? 9:05 что такое ReLU? 9:20 что такое softmax? 9:46 распознование речи, формулировка задачи 11:01 CTC loss и его обучение и особенности 15:40 архитектура DeepSpeech 17:11 архитектура Jasper 18:47 RNN - Transducer 22:02 RNN - T training 23:15 RNN-T Inference 25:07 ответы на вопросы о контексте и получении вероятностей 29:01 особенности RNN-Transducer Loss 30:35 используемые архитектуры 31:09 Seq2seq фреймворк 33:10 использование attention 34:45 обучение Seq2seq attention 37:20 listen, attend and spell модель 40:04 потоковое или непотоковое распознавание 42:00 Latency Controlled Recurrent layer для контроля задержки рас
Hide player controls
Hide resume playing