Вектор отражает семантику слова – word2vec! Лекция 2 по NLP.

Word2vec – гениальный алгоритм обработки естественного языка, который, на мой взгляд, был стартом для self-supervised learning, только тогда слов таких не было. Неожиданные свойства векторных представлений! 00:00 Вступление 02:00 Что было в прошлой лекции – кратко 06:51 Векторные представления слов: Word Embeddings 08:30 Word2vec: Continuous Bad-of-Words 16:22 Word2vec: Skip-gram 30:29 Skip-gram: Negative Sampling 39:45 Skip-gram: Hierarchical Softmax 42:52 Сэмплирование слов при обучении 44:48 Свойства получаемых векторных представлений Евгений Разинков -- к.ф.-м.н., руководитель отдела машинного обучения и компьютерного зрения Группы компаний FIX, преподаватель Казанского федерального университета, сооснователь и директор по науке компании Pr3vision Technologies, основатель и CEO парфюмерного AI-стартапа . Информация о лекциях: Телеграм-канал с анонсами, связанными с моей деятельностью:
Back to Top