Согласно OpenAI, GPT-2 - это огромная языковая модель без учителя, которая генерирует согласованные абзацы текста, достигая state-of-the-art на многих задачах NLP. Также модель способна к элементарному пониманию текста, машинному переводу, ответу на вопросы, и суммаризации - все без обучения под конкретную задачу. GPT-2 - это глубокая нейронная сеть, обученная на 40 ГБ интернет-данных (около 8 миллионов веб-страниц) для создания модели машинного обучения с около 1,5 миллиардов параметров, однако из-за опас
Hide player controls
Hide resume playing