Frequency Pack / Набор частотных словарей Год выпуска: 2014 г. Автор: S+ Описание: В набор входят два частотных списка в формате Excel, словарь для Lingvo, программа для частотного анализа текстов, а также мультимедиа-файлы (MP3, PDF). Подробнее о каждом компоненте ниже.
Скриншоты
12,500 Most Common English Words
Вторая, улучшенная версия MCW.
Первую версию списка с подробным описанием алгоритма его составления можно найти здесь Основные изменения во второй версии: - Сокращение числа вариантов перевода
- Добавление MP3-озвучки (несколько голосов на одно слово)
- Полный набор PDF-файлов (вызов непосредственно из окна списка)
- Возможность быстрого перемещения между MCW-12500 и СОСА-15000
- Улучшенная метка слов, синхронизация и проверка целостности данных на листах Подробнее >>
15,000 Most Frequent English Word Families
Сгруппированный по корням частотный словарь. Основная часть однокоренных слов представляет из себя шестой уровень word families (Bauer and Nation "Word Families", 1993). Этот уровень позволяет изучающим самостоятельно определять значения незнакомых слов по префиксам и суффиксам во время чтения. Для нумерации корней и выстраивания списка были использованы сведения из COCA. Согласно исследованиям Пола Нэшна, знание 8000 первых частотных корней позволяет читать любую художественную литературу без словаря. Подробнее >>
Словарь для ABBYY Lingvo
Словарь помогает определить частоту употребления слова (английского языка) непосредственно в окне карточки Lingvo (x3 и выше). Словарь построен на базе корпуса СОСА и структуре однокоренных слов программы Range. Версия корпуса датирована Январем 2011 и содержит в себе 410 миллионов слов. Чтобы отсеять лишний мусор, для создания словаря были использованы формы, которые встречались в корпусе только 40 и более раз (примерно 1 раз на 10 миллионов слов и выше). Слова с меньшей частотой употребления не включены. Подробнее >>
Программа Range
Программа для частотного анализа текстов, разработанная при участии Пола Нэйшна для исследований в области словарного запаса. Программа интересна тем, что содержит уникальную структуру однокоренных слов, которая была использованна для выстраивания списка СОСА-15000 и создания словаря Lingvo. В набор Frequency Pack входит версия, содержащая 20000 корней (оригинальные 14 файлов basewrd_.txt + шесть исправленных и дополненных), а также некоторые статьи Пола Нэйшна и подробная инструкция по работе с программой. Подробнее >>
Huybishev, )))) Эти материалы очень долгое время лежали у меня в недоделанном виде. В какой-то момент я к ним полностью терял интерес. Кульминацией стало, когда я понял, что уже могу читать практически без словаря, но при этом не могу связать и двух слов в своей речи. Поэтому переоценивать их не стоит.
скрытый текст
Но и недооценивать тоже! ))
На мой взгляд, частотные словари в том виде, в каком они сейчас есть, вполне можно использовать для быстрого набора слов. Особенно актуально это на ранних этапах изучения, когда словарный запас еще совсем мал и, по сути, без разницы чем и как его заполнять. Желательно, конечно, самыми популярными и употребительными словами. У меня есть опыт подобного изучения, о чем я писал в старом топике. Эффект его не вызывает сомнения. Самые базовые знания грамматики + 4500 слов и уже через полгода я мог читать адаптированную литературу без словаря с пометкой intermediate. На более поздних этапах простое запоминание слов уже не подходит. По мере роста возможностей появляется потребность в более глубоком изучении, когда запоминаются целые фразы и предложения, а значения слов сами начинают чувствоваться, благодаря тому, что все больше и больше обрастают контекстом. Для этого очень подходят pdf-файлы, но на начальных стадиях заниматься с ними будет непросто. И наконец, Lingvo словарь. Я уже настолько к нему привык, что каждый раз, когда открываю карточку, просто не могу не опуститься вниз, чтобы посмотреть частоту.) Да, практической пользы в этом никакой, скорее как стрельба в тире - всегда интересно в какую цифру на мишени попал
Большое спасибо, очень нужная вещь!!! Особенно мне как начинающему. Раньше (т.е. до данного момента) когда при чтений встречаю незнакомое слово, смотрю значение в словаре (у меня GoldenDict), затем копирую слово в буфер, и смотрю на каком месте он по частотности (https://rutr.life/forum/viewtopic.php?t=3930493) при помощи OfficeSuite. Нафиг мне на начальном этапе учить слово которое к примеру на десятитысячном месте. Теперь можно пользоваться только словарём.
А на память сетовать не стоит, она у всех примерно одинаковая. Как бы хорошо не были выучены слова, без повседневного применения они все-равно будут забываться, как забываются имена знакомых, друзей и одноклассников, не говоря уж о других вещах.
Вот где бы узнать частотность значений, а то у слов, особенно наиболее распространённых, столько значений, что не знаешь, какие нужно учить, а какие можно отбросить? Иначе жизни не хватит, чтобы всё выучить. И все вроде важны, не знаешь где что когда может встретиться.
Santana+
Огромное спасибо, Вы произвели колоссальный труд и сделали продукт-конфетку! Ничего лишнего, всё необходимое под рукой. СПА-СИ-БО! Всего наилучшего!
Excel-файл можно взять из прошлой раздачи https://rutr.life/forum/viewtopic.php?t=3930493
Люди, чтобы не терять время на уже известные слов, пользуйтесь wordsfromtext .com - он автоматически уберет те слова, которые вы уже знаете. Удачи!
камрады, а как соотноситься 4000 essential words от Пола найшина с этим частотным списком? ------------------ мда, ужас там с частотностью!!!
проверил первый уроки - часть слов за 1000 вылетает, есть слова из 8000 слов, 3000...
жаль, а так идея в 4000 ess words очень классная.
Of the 900 target words sampled from across the six-book series, just 32% fell within the top 3000 most frequent words. (Incidentally, only 55% of the sampled words were among the top 5,000 frequent words.) Of the six levels, only book 1 came close to satisfying the claim of essentiality: 83% of the sampled words appeared on the list. However, beyond book 1, the rate of frequency plummets. In books 2 to 6, only 22% of the sampled items were among the top 3000 words.
63905548Вот где бы узнать частотность значений, а то у слов, особенно наиболее распространённых, столько значений, что не знаешь, какие нужно учить, а какие можно отбросить? Иначе жизни не хватит, чтобы всё выучить. И все вроде важны, не знаешь где что когда может встретиться.
Частотность значений можно посмотреть в словаре WordNet 3 (https://rutr.life/forum/viewtopic.php?t=3582459)
Также например в Longman Dictionary of Contemporary English определения слов отсортированы по частоте использования.
Santana+
Уважаемый! Забыли домен продлить, по ссылкам на "подробнее" ничего не открывается...
И еще интересно, почему список oxford 3000 не заюали? зы
На счет частотности значений. Дополню. В abbyy lingvo есть словарик hover - как раз по этому принципу построен. Еще можно смотреть в ЛингваЛео - там видно, сколько пользователи слов добавляли (на изучение) в каком значении, если в разделе "словарь" вписать нужное слово на английском.
занимаюсь по книге Paul Nation "4000 essential english words". Когда добавляю в набор слова, то хотелось бы знать, насколько они частые. Как это можно посмотреть по этой работе? И как потом можно найти слово такого же значения, но более употребительное и привычное?
66520116Когда добавляю в набор слова, то хотелось бы знать, насколько они частые. Как это можно посмотреть по этой работе? И как потом можно найти слово такого же значения, но более употребительное и привычное?
Чтобы узнать, насколько слово "частое", можно загрузить словарь в "АББИ ЛИНГВО" и там смотреть... в описании словаря есть все необходимые подсказки, если сразу не очевидно будет...
А вот как подбирать более употребимые синонимы к низко частотным словам - пока вопрос открытый. Пока я делаю это "руками" - смотрю русско-английскую статью с синонимами, из них выбираю, в качестве ориентира использую тот же частотный словарь...
здравствуйте, у меня не добавляется частотный список в лингво .
Для добавления я вхожу в " Сервис - настройка языков и словарей - добавить словарь из файла . Дальше открывается окно и я выбираю или freakuency.lsd или freakuency_abrv.lsd
Пишет " неправильное расширение исходного файла??? Подскажите пожалуйста что делать??