Резюме
- Рынок систем Data Mining экспоненциально развивается. В этом развитии принимают участие практически все крупнейшие корпорации. В частности, Microsoft непосредственно руководит большим сектором данного рынка (издает специальный журнал, проводит конференции, разрабатывает собственные продукты).
- Системы Data Mining применяются по двум основным направлениям: 1) как массовый продукт для бизнес-приложений; 2) как инструменты для проведения уникальных исследований (генетика, химия, медицина и пр.). В настоящее время стоимость массового продукта от $1000 до $10000. Количество инсталляций массовых продуктов, судя по имеющимся сведениям, сегодня достигает десятков тысяч. Лидеры Data Mining связывают будущее этих систем с использованием их в качестве интеллектуальных приложений, встроенных в корпоративные хранилища данных.
- Несмотря на обилие методов Data Mining, приоритет постепенно все более смещается в сторону логических алгоритмов поиска в данных if-then правил. С их помощью решаются задачи прогнозирования, классификации, распознавания образов, сегментации БД, извлечения из данных “скрытых” знаний, интерпретации данных, установления ассоциаций в БД и др. Результаты таких алгоритмов эффективны и легко интерпретируются.
- Вместе с тем, главной проблемой логических методов обнаружения закономерностей является проблема перебора вариантов за приемлемое время. Известные методы либо искусственно ограничивают такой перебор (алгоритмы КОРА, WizWhy), либо строят деревья решений (алгоритмы CART, CHAID, ID3, See5, Sipina и др.), имеющих принципиальные ограничения эффективности поиска if-then правил. Другие проблемы связаны с тем, что известные методы поиска логических правил не поддерживают функцию обобщения найденных правил и функцию поиска оптимальной композиции таких правил. Удачное решение указанных проблем может составить предмет новых конкурентоспособных разработок.
Средства для тестирования и проверки моделей интеллектуального анализа данных
Службы Analysis Services есть несколько подходов к проверке решений интеллектуального анализа данных с поддержкой всех этапов методики тестирования интеллектуального анализа данных.
-
Разделение данных на обучающий и проверочный наборы.
-
Фильтрация моделей с целью проведения обучения и проверки для различных сочетаний одних и тех же исходных данных.
-
Измерение увеличения точности и повышения эффективности. Диаграмма точности прогнозов позволяет наглядно представить улучшение, полученное при использовании модели интеллектуального анализа данных, по сравнению со случайным предположением.
-
Выполнение перекрестной проверки наборов данных
-
Создание матрицы классификации. Эти диаграммы используется для сортировки верных и неверных предположений в таблице и позволяют быстро оценить точность модели в прогнозировании целевого значения.
-
Создание точечных диаграмм для оценки соответствия формулы регрессии.
-
Создание диаграмм роста прибыли , которые связывают модель интеллектуального анализа данных и финансовые доходы или расходы, позволяя тем самым оценивать ценность рекомендаций.
Эти показатели не предназначены для ответа на вопрос, решает ли модель интеллектуального анализа данных имеющиеся бизнес-задачи. Они скорее предлагают объективные цифры, которые позволяют оценивать надежность данных, используемых для прогнозирования, а также принимать решения о том, использовать ли данную итерацию в процессе разработки.
В подразделах этого раздела приведены общие сведения о каждом методе, в них также подробно описан процесс оценки точности моделей, выстраиваемых с помощью интеллектуального анализа данных SQL Server.
См. также
Разделы | Ссылки |
---|---|
Узнайте, как создать набор проверочных данных, с помощью мастера или команд расширений интеллектуального анализа данных | Обучающие и проверочные наборы данных |
Узнайте, как проверить распределение и репрезентативность данных в структуре интеллектуального анализа данных | Перекрестная проверка (службы Analysis Services — интеллектуальный анализ данных) |
Сведения о предоставляемых типах диаграмм точности. | Диаграмма точности прогнозов (службы Analysis Services — интеллектуальный анализ данных)Диаграмма роста прибыли (службы Analysis Services — интеллектуальный анализ данных)Точечная диаграмма (службы Analysis Services — интеллектуальный анализ данных) |
Узнайте о создании матрицы классификации, которую иногда также называют матрицей несоответствий, для оценки нескольких условий. | Матрица классификации (службы Analysis Services — интеллектуальный анализ данных) |
Загрузка, установка и запуск Python и SciPy
1.1 Установка библиотек SciPy
Есть 5 ключевых библиотек, которые необходимо установить. Ниже приведен список библиотек Python SciPy, необходимых для этого руководства:
- scipy
- numpy
- matlibplot
- pandas
- sklearn
На сайте SciPy есть отличная инструкция по установке вышеуказанных библиотек на ключевых платформах: Windows, Linux, OS X mac. Если у вас есть какие-либо сомнения или вопросы, обратитесь к этому руководству, через него прошли миллионы людей.
Существует множество способов установить библиотеки. В качестве совета мы рекомендуем выбрать один метод и быть последовательным в установке каждой библиотеки. Если вы пользуетесь Windows или вы не уверены как это сделать, мы рекомендую установить бесплатную версию Anaconda, которая включает в себя все, что вам нужно (windows, macOS, Linux).
1.2 Запуск Python и проверка версий
Рекомендуется убедиться, что среда Python была успешно установлена и работает в штатном состоянии. Сценарий ниже поможет вам проверить вашу среду. Он импортирует каждую библиотеку, требуемую в этом учебнике, и печатает версию.
Откройте командную строку и запустите Python:
Мы рекомендуем работать непосредственно в интерпретаторе или писать скрипты и запускать их в командной строке, нежели редакторах и IDEs. Это позволит сосредоточиться на машинном обучении, а не инструментарии программиста.
Введите или скопируйте и вставьте следующий скрипт в интерпретатор:
Вот пример вывода:
В идеале, ваши версии должны соответствовать или быть более поздними. API библиотек не меняются быстро, так что не не стоит переживать, если ваша версии другие. Все в этом урове, скорее всего, все еще будет работать для вас.
Если же выдает ошибку, рекомендуем обновить версионность системы. Если вы не можете запустить скрипт выше, вы не сможете пройти урок.
есть что-нибудь получше?
Есть еще одна граница под названием «Чернофф Бунд«/Неравенство Хеффдингакоторый дает экспоненциально резкое распределение хвоста (по сравнению с 1 / k²) для сумм независимых случайных величин.
Это также может использоваться вместо гауссовского распределения, когда данные не выглядят нормально, но только тогда, когда мы имеем высокую степень уверенности в том, что основной процесс состоит из подпроцессов, которые полностью независимы друг от друга.
К сожалению, во многих социальных и бизнес-случаях окончательные данные являются результатом чрезвычайно сложного взаимодействия многих подпроцессов, которые могут иметь сильную взаимозависимость.
Отличия Process Mining от Data Mining
- Data mining преимущественно используется для поиска иерархических зависимостей в больших объемах данных. Например, в каких каналах какие категории клиентов какие категории товаров покупают и как часто.
- На вход подаются таблицы с разнородными данными из разных доменов.
- Использует многомерные представления (кубы) с возможностью изменения уровня детализации (различные уровни агрегации) информации.
- Process mining концентрируется не на семантических взаимосвязях данных, а на представлении данных в виде процессов.
- На вход подаются транзакционные данные по объектам учета. Обычно в качестве таких объектов выступают (Задания, Заказы, Заявки, Наряды и так далее). Примером транзакционных данных служат журналы событий, аудиторские следы, данные о событиях и состояниях объектов (будь то статус объекта или смена ответственного подразделения).
- Использует методы сэмплинга данных для построения модели процесса по наиболее представительным сценариям в процессе. Process mining ищет не просто связи между данными: его задача состоит в том, чтобы определить связи между шагами процесса, отклонения от нормального процесса, факторы влияния наотклонения, эффективность процесса, сценарность процесса, а также узкие места в процессе.
Sentiment Analysis: Обзоры фильмов на IMDb
Краткая информация
Набор данных содержит коллекцию из 50 000 рецензий на сайте IMDb, с равным количеством положительных и отрицательных рецензий. Задача — предсказать полярность (положительную или отрицательную) данных отзывов (тексты).
1. Загрузка и исследование данных
Набор данных IMDB можно скачать здесь.
Пример отрицательной рецензии:
2. Data Preprocessing
На этом этапе мы совершаем все шаги очистки и предварительной обработки данных тем методом, который был описан выше. Мы используем лемматизацию, а не стеммизацию, потому что в процессе тестирования результатов обоих случаев лемматизация дает лучшие результаты, чем стеммизация.
Использовать ли стеммизацию или лемматизацию или и то, и другое — зависит от поставленной задачи, так что нам стоит попробовать и решить, какой способ сработает лучше для данной задачи.
Добавляем новую колонку preprocessed_review в dataframe, применяя data_preprocessing() ко всем рецензиям.
3. Vectorizing Text (рецензии)
Разделяем набор данных на train и test (70–30):
Используем train_test_split из sklearn, чтобы разделить данные на train и test. Здесь используем параметр stratify,чтобы иметь равную пропорцию классов в train и test.
BOW
Здесь мы использовали min_df=10, так как нам нужны были только те слова, которые появляются как минимум 10 раз во всем корпусе.
4. Создание классификаторов ML
Naive Bayes c BOW выдает точность 84.6%. Попробуем с TF-IDF.
TF-IDF выдает результат немного лучше (85.3%), чем BOW. Теперь давайте попробуем TF-IDF с простой линеарной моделью, Logistic Regression.
Logistic Regression с рецензиями, закодированными TF-IDF, выдает результат лучше, чем наивный байемовский — точность 88.0%.
Построение матрицы неточностей даст нам информацию о том, сколько точек данных верны и сколько неверны, классифицированную с помощью модели.
Из 7500 отрицательных рецензий 6515 были верно классифицированы как отрицательные и 985 были неверно классифицированы как положительные. Из 7500 положительных рацензий 6696 были верно классифицированы как положительные, и 804 неверно классифицированы как отрицательные.
Как начать использовать машинное обучение в Python?
Лучший способ научиться машинному обучению — проектировать и завершать небольшие проекты.
Python может быть пугающим при начале работы
Python является популярным и мощным интерпретируемым языком. В отличие от R, Python является и полным языком и платформой, которые можно использовать как для исследований, численных расчетов, так и для разработки производственных систем.
В Python есть также много модулей и библиотек на выбор, обеспечивая несколько способов выполнения каждой задачи.
Лучший способ начать использовать Python для машинного обучения — это разобрать готовый проект по машинному обучению и затем его сделать самому с нуля:
- Это заставит вас установить и запустить Python интерпретатор.
- Это даст вам понимание с высоты птичьего полета о том, как выглядит небольшой проект.
- Это даст вам уверенность, чтобы перейти к собственным задача и проектам.
Новичкам нужен небольшой сквозной проект
Книги и курсы порой часто расстраивают. Они дают вам много теоретических конструкций и фрагментов, но вы никогда не увидите, как все они сочетаются друг с другом.
Когда вы применяете машинное обучение к собственному датасету, вы работаете над проектом. Проект по машинному обучению может быть не всегда последовательным, но обычно он имеет несколько выраженных этапов:
- Постановка задачи
- Подготовка данных
- Оценка качества алгоритмов
- Оптимизация результата
- Презентация результата.
Лучший способ по-настоящему примириться с новой платформой или инструментом – это работать над проектом машинного обучения и покрыть эти ключевые этапы.
Если вы можете сделать это, у вас будет шаблон, который можно будет использовать в будущем на другой выборке данных или задаче. Вы сможете заполнить пробелы, такие как дальнейшая подготовка данных и улучшение алгоритмов.
Так в чем проблема?
Это все неуклюжий, в чем проблема?
Проблема в том, что часто вы можете найти дистрибутив для вашего конкретного набора данных, который может не удовлетворять нормальности, то есть свойствам нормального дистрибутива. Но из-за чрезмерной зависимости от предположения о нормальности,Большинство структур бизнес-аналитики специально разработаны для работы с нормально распределенными наборами данных.,
Допустим, вас просят обнаружить проверку, имеет ли смысл новый пакет данных из какого-либо процесса (инженерного или бизнес). По ‘придать смыслаВы имеете в виду, если новые данныепринадлежатт.е. если он находится в «ожидаемом диапазоне».
Автоматически, как если бы это было направлено подсознательным двигателем, мы измеряем среднее значение и стандартное отклонение выборочного набора данных и продолжаем проверять, попадают ли новые данные в определенный диапазон стандартных отклонений.
Если нам нужно работать с доверительной вероятностью 95%, то мы будем рады видеть, что данные находятся в пределах 2 стандартных отклонений. Если нам нужно более строгое ограничение, мы проверяем 3 или 4 стандартных отклонения. Мы рассчитываемхолодный полярный континентальный воздухили мы следуемшесть Сигмруководящие принципы длям.д.(частей на миллион) уровень качества.
Все эти расчеты основаны на неявном предположении, что данные о населении (НЕ выборка) следуют гауссовскому распределению, т.е. фундаментальный процесс, на основе которого были получены все данные (в прошлом и в настоящем), определяется шаблоном левая сторона.
Или это и … это?
Типы закономерностей
Выделяют пять стандартных типов закономерностей, которые позволяют выявлять методы Data Mining: ассоциация, последовательность, классификация, кластеризация и прогнозирование (рис. 2).
Рисунок 2. Типы закономерностей, выявляемых методами Data Mining
Ассоциация имеет место в том случае, если несколько событий связаны друг с другом. Например, исследование, проведенное в супермаркете, может показать, что 65% купивших кукурузные чипсы берут также и “кока-колу”, а при наличии скидки за такой комплект “колу” приобретают в 85% случаев. Располагая сведениями о подобной ассоциации, менеджерам легко оценить, насколько действенна предоставляемая скидка.
Если существует цепочка связанных во времени событий, то говорят о последовательности. Так, например, после покупки дома в 45% случаев в течение месяца приобретается и новая кухонная плита, а в пределах двух недель 60% новоселов обзаводятся холодильником.
С помощью классификации выявляются признаки, характеризующие группу, к которой принадлежит тот или иной объект. Это делается посредством анализа уже классифицированных объектов и формулирования некоторого набора правил.
Кластеризация отличается от классификации тем, что сами группы заранее не заданы. С помощью кластеризации средства Data Mining самостоятельно выделяют различные однородные группы данных.
Основой для всевозможных систем прогнозирования служит историческая информация, хранящаяся в БД в виде временных рядов. Если удается построить найти шаблоны, адекватно отражающие динамику поведения целевых показателей, есть вероятность, что с их помощью можно предсказать и поведение системы в будущем.
Что такое Data Mining?
Data Mining переводится как “добыча” или “раскопка данных”. Нередко рядом с Data Mining встречаются слова “обнаружение знаний в базах данных” (knowledge discovery in databases) и “интеллектуальный анализ данных”. Их можно считать синонимами Data Mining. Возникновение всех указанных терминов связано с новым витком в развитии средств и методов обработки данных.
До начала 90-х годов, казалось, не было особой нужды переосмысливать ситуацию в этой области. Все шло своим чередом в рамках направления, называемого прикладной статистикой (см. например, ). Теоретики проводили конференции и семинары, писали внушительные статьи и монографии, изобиловавшие аналитическими выкладками.
Вместе с тем, практики всегда знали, что попытки применить теоретические экзерсисы для решения реальных задач в большинстве случаев оказываются бесплодными. Но на озабоченность практиков до поры до времени можно было не обращать особого внимания – они решали главным образом свои частные проблемы обработки небольших локальных баз данных.
И вот прозвенел звонок. В связи с совершенствованием технологий записи и хранения данных на людей обрушились колоссальные потоки информационной руды в самых различных областях. Деятельность любого предприятия (коммерческого, производственного, медицинского, научного и т.д.) теперь сопровождается регистрацией и записью всех подробностей его деятельности. Что делать с этой информацией” Стало ясно, что без продуктивной переработки потоки сырых данных образуют никому не нужную свалку.
Специфика современных требований к такой переработке следующие:
- Данные имеют неограниченный объем
- Данные являются разнородными (количественными, качественными, текстовыми)
- Результаты должны быть конкретны и понятны
- Инструменты для обработки сырых данных должны быть просты в использовании
Традиционная математическая статистика, долгое время претендовавшая на роль основного инструмента анализа данных, откровенно спасовала перед лицом возникших проблем. Главная причина – концепция усреднения по выборке, приводящая к операциям над фиктивными величинами (типа средней температуры пациентов по больнице, средней высоты дома на улице, состоящей из дворцов и лачуг и т.п.). Методы математической статистики оказались полезными главным образом для проверки заранее сформулированных гипотез (verification-driven data mining) и для “грубого” разведочного анализа, составляющего основу оперативной аналитической обработки данных (online analytical processing, OLAP).
В основу современной технологии Data Mining (discovery-driven data mining) положена концепция шаблонов (паттернов), отражающих фрагменты многоаспектных взаимоотношений в данных. Эти шаблоны представляют собой закономерности, свойственные подвыборкам данных, которые могут быть компактно выражены в понятной человеку форме. Поиск шаблонов производится методами, не ограниченными рамками априорных предположений о структуре выборке и виде распределений значений анализируемых показателей. Примеры заданий на такой поиск при использовании Data Mining приведены в табл. 1.
Таблица 1. Примеры формулировок задач при использовании методов OLAP и Data Mining
OLAP | Data Mining |
Каковы средние показатели травматизма для курящих и некурящих? | Какие факторы лучше всего предсказывают несчастные случаи? |
Каковы средние размеры телефонных счетов существующих клиентов в сравнении со счетами бывших клиентов (отказавшихся от услуг телефонной компании)? | Какие характеристики отличают клиентов, которые, по всей вероятности, собираются отказаться от услуг телефонной компании? |
Какова средняя величина ежедневных покупок по украденной и не украденной кредитной карточке? | Какие схемы покупок характерны для мошенничества с кредитными карточками? |
Важное положение Data Mining – нетривиальность разыскиваемых шаблонов. Это означает, что найденные шаблоны должны отражать неочевидные, неожиданные (unexpected) регулярности в данных, составляющие так называемые скрытые знания (hidden knowledge)
К обществу пришло понимание, что сырые данные (raw data) содержат глубинный пласт знаний, при грамотной раскопке которого могут быть обнаружены настоящие самородки (рис.1).
Рисунок 1. Уровни знаний, извлекаемых из данных
В целом технологию Data Mining достаточно точно определяет Григорий Пиатецкий-Шапиро – один из основателей этого направления:
Отсутствующие данные
Давайте предположим, что я провожу опрос, который состоит из серии вопросов. Я делюсь ссылкой на опрос с тысячами людей, чтобы они могли высказать свое мнение. Моя конечная цель — провести анализ данных на этих данных, чтобы я мог получить некоторые ключевые выводы из этих данных.
Теперь многое может пойти не так, некоторые геодезисты могут чувствовать себя неловко, отвечая на некоторые мои вопросы, и оставить это поле пустым. Многие люди могут сделать то же самое для нескольких частей моего опроса. Это не может считаться проблемой, но представьте, что если бы я собирал числовые данные в своем опросе, а часть анализа требовала, чтобы я получил либо сумму, среднее значение, либо какую-то другую арифметическую операцию. Несколько пропущенных значений приведут к большому количеству неточностей в моем анализе, я должен найти способ найти и заменить эти пропущенные значения некоторыми значениями, которые могут быть их близкой заменой.
Pandas предоставляют нам функцию для поиска пропущенных значений в вызываемом DataFrame .
Оно возвращает DataFrame с логическими значениями, который сообщает нам, действительно ли изначально присутствующие данные отсутствовали. Вывод будет выглядеть таким:
Нам нужен способ заменить все эти пропущенные значения, чаще всего выбор пропущенных значений можно принять за ноль. Иногда это может быть принято как среднее значение всех других данных или, возможно, среднее значение данных вокруг него, в зависимости от варианта использования анализируемых данных.
Чтобы заполнить все пропущенные значения в DataFrame, мы используем функцию :
Выше мы заполняем все пустые данные значением ноль. Это может быть любой другой номер, который мы указали.
Важность анализа не может быть переоценена, он помогает нам получить ответы прямо из наших данных! Многие утверждают, что анализ данных — это новая нефть для цифровой экономики. Все примеры в этой статье можно найти
Все примеры в этой статье можно найти .
Категории
Данные, которые были получены в результате использования средств Data mining описывают новые связи между свойствами, предсказывают одни значения признаков на основе других. В круг задач, которые решает Data mining входят:
- Классификация — структуризация объектов по заданным классам
- Ассоциация — выявление ассоциативных цепей. впервые такой метод был применен для анализа рыночной корзины типичного потребителя.
- Кластеризация — группировка событий и наблюдений в кластеры. В основу берутся свойства описывающие суть самих группируемых событий
- Прогнозирование — предсказание на основе имеющихся данных возможного развития событий как прогрессивное, так и регрессивное.
- Анализ изменений — выявление типичных ситуаций, шаблонов. Сюда входит и установление закономерностей между различными временными событиями, равно как и обнаружение зависимостей и причинно-следственных связей.
Ключевые функции интеллектуального анализа данных
SQL Server Интеллектуальный анализ данных предоставляет следующие функции по поддержке встроенных решений интеллектуального анализа данных.
-
Несколько источников данных: можно использовать любой источник табличных данных для интеллектуального анализа данных, включая электронные таблицы и текстовые файлы. Также легко доступен интеллектуальный анализ кубов OLAP, созданных в службах Службы Analysis Services. При этом невозможно использовать данные из выполняющейся в памяти базы данных.
-
Встроенная очистка данных, управление данными и отчетность: в Службы Integration Services предусмотрены мощные средства для профилирования и очистки данных. Можно создавать процессы ETL для очистки данных в процессе подготовки к моделированию, а ssISnoversion упрощает повторное обучение и обновление моделей.
-
Несколько настраиваемых алгоритмов: в дополнение к кластеризации, нейронным сетям и деревьям принятия решений интеллектуальный анализ данных SQL Server поддерживает разработку собственных пользовательских подключаемых алгоритмов.
-
Инфраструктура проверки моделей: проверять модели и наборы данных теперь можно с помощью таких важных статистических средств, как перекрестная проверка, матрицы классификации, диаграммы точности прогнозов и точечные диаграммы. Простое создание проверочных и обучающих наборов и управление ими.
-
Запросы и детализация: интеллектуальный анализ данных SQL Server предоставляет язык DMX для интеграции прогнозирующих запросов в приложения. Вы можете получать подробные статистические данные и шаблоны из моделей и выполнять детализацию данных вариантов.
-
Клиентские средства: в дополнение к средам разработки и проектирования, входящим в состав SQL Server, появились надстройки интеллектуального анализа данных для Excel в решении таких задач, как создание и просмотр моделей, а также выполнение запросов к ним. Кроме того, можно создавать пользовательские клиенты, в том числе веб-службы.
-
Поддержка языка сценариев и управляемые API-интерфейсы: все объекты интеллектуального анализа данных являются полностью программируемыми. Сценарии через MDX, XMLA или расширения PowerShell для служб Службы Analysis Services. С помощью языка расширения интеллектуального анализа данных (DMX) можно быстро создавать запросы и сценарии.
-
Защита и развертывание: обеспечивает безопасность на основе ролей через Службы Analysis Services, в том числе раздельные разрешения для детализации на моделирование и структурирование данных. Простота развертывания моделей на других серверах, которая предоставляет пользователям доступ к закономерностям и прогнозированию
Векторизация текстовых данных (Text Data Vectorization):
«Мешок слов» (Bag of words (BOW)):
Это одна из самых простых методик векторизации текста. В логике BOW два предложения могут называться одинаковыми, если содержат один и тот же набор слов.
Рассмотрим два предложения:
BOW создает словарь уникальных d слов в корпусе (собрание всех токенов в данных). Например, корпус на изображении выше состоит из всех слов предложений S1 и S2.
Теперь мы можем создать таблицу, где столбцы соответствуют входящим в корпус уникальным d словам, а строки предложениям (документам). Мы устанавливаем значение 1, если слово в предложении есть, и 0, если его там нет.
Это позволит создать dxn матрицу, где d это общее число уникальных токенов в корпусе и n равно числу документов. В примере выше матрица будет иметь форму 11×2.
Частота слова (Term Frequency):
Term Frequency высчитывает вероятность найти какое-то слово в документе. Ну, например, мы хотим узнать, какова вероятрность найти слово wi в документе dj.
Term Frequency (wi, dj) =
Количество раз, которое wi встречается в dj / Общее число слов в dj
Обратная частота документа (Inverse Document Frequency):
В логике IDF, если слово встречается во всех документах, оно не очень полезно. Так определяется, насколько уникально слово во всем корпусе.
IDF(wi, Dc) = log(N/ni)
Здесь Dc = Все документы в корпусе,
N = Общее число документов,
ni = документы, которые содержат слово (wi).
TF(wi, dj) * IDF(wi, Dc)
TF-IDF — умножение значений TF и IDF. Больший вес получат слова, которые встречаются в документе чаще, чем во всем остальном корпусе.
Что такое разведочный анализ данных?
Разведочный анализ данных, Exploratory Data Analysis (EDA) — один из первых и определяющих шагов проекта науки о данных, который приводит в движение весь проект. Он придает проекту конкретное направление и формирует план его реализации.
Разведочный анализ данных означает изучение данных до самых глубин для получения из них практической информации. Он включает в себя анализ и обобщение массивных наборов данных, часто в форме диаграмм и графиков.
Следовательно и бесспорно это самый важный этап в проекте науки о данных, по собственному опыту знаю, что он всегда занимает 70-80% времени всего проекта. Чем лучше вы знаете свой набор данных, тем лучше вы сможете его использовать! Чтобы лучше понять, какое место EDA занимает во всем процессе анализа данных, вот вам иллюстрация:
Место EDA в процессе анализа данных
Думается, что теперь у вас появилось чёткое представление о месте, занимаемое EDA и вы готовы погрузиться в подробности!