Дмитрий Игнатов,
кафедра анализа данных и искусственного интеллекта ГУ-ВШЭ
Задача поиска частых множеств признаков (frequent itemsets mining) является одной из центральных тем в DataMining. Первоначально необходимость поиска частых множества признаков возникла при выявлении часто покупаемых вместе товаров в базах данных транзакций. Неформально ее можно описать так: дана большая база данных транзакций (покупок); необходимо найти все часто покупаемые наборы товаров, число покупок которых превышает заданный пользователем порог.
В настоящее время набор приложений, в которых основным этапом является построение частых множеств признаков, существенно расширился, например, это поиск ассоциативных правил (см. раздел 2.6), сильных правил (strong rules), корреляций, секвенциальных правил, эпизодов (episodes), многомерных образов (multidimensional patterns) и многие другие задачи анализа данных [36].
Среди частых множеств признаков выделяют так называемые частые замкнутые множества признаков, которые полезны для их более компактного представления. Такое представление осуществляется без потерь информации о поддержке собственных частых подмножеств данных частых замкнутых множеств признаков.
Хорошо известным фактом для сообщества DataMining является то, что все замкнутые частые множества признаков (т.е. при
)
образуют решетку; эта решетка изоморфна решетке понятий контекста для соответствующей базы данных. Более того, все замкнутые множества признаков образуют в точности решетку содержаний понятий такого контекста [86].
Ниже будут даны основные определения; для единства изложения и общности понимания которых будем использовать терминологию, принятую в ФАП. Приведем также классический алгоритм для поиска частых множеств признаков Apriori [9], который не утратил своей актуальности и стал отправной точкой для огромного числа других алгоритмов. Обсудим также связь ФАП и поиска частых замкнутых множеств признаков, которая позволяет рассматривать оба метода в контексте бикластеризации.
Дадим определение частого множества признаков в терминах ФАП.
Здесь контекст
представляет собой объектно-признаковую таблицу, которую можно интерпретировать как базу данных покупок,
— множество транзакций, а
— множество товаров.
Ключевым понятием для данной задачи является поддержка.
Значение
показывает, какая доля объектов
содержит
.
Часто поддержку выражают в
.
Если задано значение минимальной поддержки
,
то Определение 2.25 можно переписать следующим образом.
Дадим определения частых замкнутых множеств признаков и максимальных частых множеств признаков.
Используя оператор замыкания, можно дать следующее определение, эквивалентное 2.28.
Пусть
— множество всех частых множеств признаков,
— множество всех частых замкнутых множеств признаков,
— множество всех максимальных частых множеств признаков. Тогда, очевидно, выполнено следующее соотношение
.
Как уже было отмечено выше, частые замкнутые множества позволяют компактно представлять все множество частых признаков без потерь информации об их частоте. Максимальные множества признаков, хотя и являются компактным представлением даже меньшего размера, не позволяют вычислить поддержку всех частых множеств признаков.
Тем не менее, применение максимальных частых множеств признаков оправдано для плотных контекстов, например, для данных телекоммуникационных компаний, данных переписи, данных последовательностей, изучаемых в биоинформатике. Это связано с тем, что для частого множества признаков длины
приходится вычислять
его частых подмножеств на ранних этапах работы алгоритмов, таких как Apriori. Поэтому MFI помогают понять структуру извлекаемых множеств признаков в указанных выше задачах (в случае плотных контекстов, для которых длина частых множеств признаков довольно часто равна 30-40), в то время как поиск всех частых множеств признаков оказывается невозможным.
Отметим два важных для практической реализации свойства частых множеств признаков.
Свойство 2.1 позволяет создавать алгоритмы, использующие поуровневый поиск частых множеств признаков. А свойство антимонотонности помогает сократить число шагов такого поиска, т.е. не рассматривать надмножества множеств признаков, не являющихся частыми. Алгоритмы поиска частых множеств признаков, использующие эти два свойства, называются поуровневыми (levelwise).
| Покупатели/товары | Пиво | Пряники | Молоко | Мюсли | Чипсы |
| С |
1 | 0 | 0 | 0 | 1 |
| С |
0 | 1 | 1 | 1 | 0 |
| С |
1 | 0 | 1 | 1 | 1 |
| С |
1 | 1 | 1 | 0 | 1 |
| С |
0 | 1 | 1 | 1 | 1 |